1、改变神经网络复杂程度:Deep Crossing(深度特征交叉)
Deep&Crossing模型--------源于2014年-------微软
模型在其内部网络中解决的问题:
1、离散型特征编码过于稀疏,不利于网络的训练
2、特征自动交叉组合的问题
3、输出层中达到问题设定的优化目标
模型的网络结构图:

模型结构共计四层,
**
Embedding层:
**作用使其将稀疏的类别特征转换为稠密的Embedding向量
Stacking层:
作用是把不同的Embedding特征和数值型特征拼接在一起,形成新的办好全部特征的特征向量,该层通常也被称为连接层
Multiple Residual Untits层:
通过多层残差网络对特征向量各个维度进行充分的交叉组合,使模型能够抓住到更多的非线性特征和组合特征的信息,进而使深度学习模型在表达上较为传统机器学习模型大为增强,
Scoring层:
作为输出层,为了拟合优化目标而存在的,对于CTR预估这类二分类问题,Scoring层往往使用的是逻辑回归模型,而对于图像分类等多分类问题,Scoring层往往采用softmax模型
Deep Crossing模型采用梯度反向传播的方法进行训练,最终得到基于DeepCrossing的CTR预估模型
与传统感知机不同,残差单元的特点主要有两个:
1、残差单元中包含一个以ReLU为激活函数的全连接层
2、

本文探讨了推荐系统中深度学习模型的发展,包括Deep Crossing如何通过神经网络解决特征稀疏性和交叉问题,NeuralCF利用多层神经网络增强表达能力,以及PNN模型通过乘积层实现更丰富的特征交互。此外,还提到了从Wide&Deep模型演变出的DeepFM、Deep&Cross等,以及NFM、DIN、DIEN和DRN等引入注意力机制、序列和强化学习的模型。
最低0.47元/天 解锁文章
1071

被折叠的 条评论
为什么被折叠?



