对attention的简单理解 首先,令 V = { v 1 , . . . , v ∣ V ∣ } \mathcal{V} = \{v_1,...,v_{|\mathcal{V}|}\} V={ v1,...,v∣V∣}, v i ∈ R d v_i \in \mathbb{R}^d vi∈Rd为item的向量表达;令 f : R d ∗ d → R f: \mathbb{R}^{d*d} \rightarrow \mathbb{R} f:Rd∗d→R 或者