DIN论文解析笔记

文章探讨了BaseModel中商品id、goodsid、catid使用Multi-hot编码,而其他特征如年龄性别采用One-hot编码的原因。注意力机制在DIN模型中被用来保留用户兴趣强度,未进行softmax归一化以避免长序列时权重过小,影响兴趣向量的显著性。该研究源于阿里巴巴的开创性工作,强调了深度学习在个性化推荐中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

注意Base Model 中 对于历史行为特征中的商品id、goodsid 、cat id 是Multi-hot编码,其他的上下文特征如年龄性别都是One-hot编码; 

参考 2特征表示:;

注意力机制得分: 

没做softmax 归一化的原因: 为了保留用户的兴趣强度。如果做归一化,当序列长度很长时,容易导致权重系数很小,从而各个历史行为的强度也不然容易区分而且最终的加权和容易很小,兴趣向量不明显, 

参考: “

【深度学习推荐模型】DIN模型 —— 阿里巴巴推荐领域开创性论文,引入注意力机制的深度学习网络,导读-4DIN模型网络结构” 。

https://www.bilibili.com/video/BV1eV41147oi?p=4&vd_source=0e2d47c0c67fb509b32ba3bfc5b73819

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值