Wide & Deep - 学习笔记

1、介绍

Wide & Deep模型的出发点是兼顾模型的记忆能力和泛化能力,下面解释一下这两者的含义。

  • 记忆 (Memorization):指的是模型记住商品共现性的能力。举个例子,一个父亲逛淘宝通常会同时买尿布和啤酒,这就体现了商品的共现性。购买的次数多了,当模型看到尿布,自然会给用户推荐啤酒,这就是模型的记忆能力。
  • 泛化( Generalization)能力:只是的模型挖掘用户潜在喜好的能力。比方说,你经常刷足球类的短视频,软件就会根据足球去联想,你是不是有可能喜欢C罗呢?然后软件就会尝试给你推荐C罗的视频,这就体现了模型的泛化能力。

在Wide & Deep论文中,由线性模型加上人工设计的关联规则,来负责记忆(Memorization),称为Wide部分;由深层神经网络来负责泛化( Generalization),称为Deep部分。
在这里插入图片描述

2、Wide

广义线性模型的表达式是:
y = w T x + b y=w^Tx+b y=wTx+b
其中, x x x表示特征向量。然后 W i d e Wide Wide部分定义了一个关联规则,用它来表示特征之间的共现性:

在这里插入图片描述
关联规则的具体表示是:只有当 i i i特征和 k k k特征同时为1时, c k i c_{ki} cki才为1,否则为0。文中选择的特征是“用户下载的APP”和“用户感兴趣的APP”。

3、Deep

D e e p Deep Deep部分,首先会把稀疏的原始向量经过 E m b e d d i n g Embedding Embedding层,得到稠密向量,然后再经过全连接网络,进行特征交叉,提取高阶特征:
在这里插入图片描述

4、Join Training

最后,我们把 W i d e Wide Wide部分和 D e e p Deep Deep部分的输出加在一起,经过一个 S i g m o i d Sigmoid Sigmoid函数,把输出压缩到01之间,最后用 L o g i s t i c Logistic Logistic L o s s Loss Loss进行训练。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值