-
AFM和NFM一样也是一个串行的FM&DNN结构。在进行预测时,FM会让一个特征固定一个特定的向量,当这个特征与其他特征做交叉时,都是用同样的向量去做计算。这个是很不合理的,因为不同的特征之间的交叉,重要程度是不一样的。如何体现这种重要程度,之前介绍的FFM模型是一个方案。另外,结合了attention机制的AFM模型,也是一种解决方案。
-
网络结构:
预测公式由:

变为:

圆圈中有个点的符号代表的含义是element-wise product,即:


图中的前三部分:sparse iput,embedding layer,pair-wise interaction layer,都和FM是一样的。而后面的两部分,则是AFM的创新所在,也就是我们的Attention net。Attention背后的数学公式如下:

不难看出AFM只是在FM的基础上添加了attention的机制,但是实际上,由于最后的加权累加,二次项并没有进行更深的网络去学习非线性交叉特征,所以AFM并没有发挥出DNN的优势,也许结合DNN可以达到更好的结果。
本文介绍了注意力因子机(AFM)模型,该模型通过引入注意力机制改进了因子分解机(FM)模型,解决了FM模型中特征交叉权重固定的问题。AFM能够为不同特征间的交叉分配不同的权重,从而更好地捕捉特征间的重要性和交互作用。
770

被折叠的 条评论
为什么被折叠?



