google提出的Wide&deep模型,将线性模型与DNN很好的结合起来,在提高模型泛化能力的同时,兼顾模型的记忆性。wide&deep这种将线性模型与DNN的并行连接模式,后来称为推荐领域的经典模式,奠定了后面深度学习模型的基础。这个是一个里程碑的改变。

单层的wide层善于处理大量的稀疏的id类特征,deep部分利用深层的特征交叉,挖掘在特征背后的数据模式。
目录
1.wide部分
wide部分训练的时候使用的优化器是带正则的FTRL算法(Follow-the-regularized-leader),FTRL可以理解为一个稀疏性很好,精度又不错的随机梯度下降方法,该算法是非常注重模型稀疏性质的,因为Wide部分的大部分参数都为0,这就大大压缩了模型权重及特征向量的维度。 Wide部分模型训练完之后留下来的特征都是非常重要的,那么模型的"记忆能力"就可以理解为发现"直接的",”暴力的“,”显然的“关联规则的能力。
因此wide部分使用FTRL算法原因是:
1.压缩模型权重,减少服务的时候存储要
2.来自工业上的经验,对模型的实时更新更加有利,能够在实时更新的时候,尽量的加大实时的那部分数据对于参数更新的相应速度,不至于用实时数据更新好久也没有更新动原来的大模型。
2.Deep部分

3.Wide&Deep
Wide&Deep模型由Google提出,它将线性模型的稀疏性和记忆性与DNN的深度特征交叉相结合,增强了模型的泛化能力。Wide部分采用FTRL算法,注重模型稀疏性,适合处理大量稀疏ID特征,而Deep部分则用于挖掘隐藏的模式。这种架构成为推荐系统领域的经典模式,并对后续深度学习模型产生了深远影响。
1302

被折叠的 条评论
为什么被折叠?



