DIN解读

DIN(DeepInterestNetwork)是阿里妈妈提出的一种改进的推荐系统模型,它通过引入注意力机制捕捉用户历史行为与商品的关联,解决了传统Embedding&MLP架构的局限。此外,DIN采用mini-batchaware正则化和自适应激活函数来优化大规模稀疏神经网络的训练。这些创新强化了对用户兴趣强度的表示,提高了推荐的精准度。

传统的Embedding&MLP架构将用户特征编码进一个固定长度的向量。当推出一个商品时,该架构无法捕捉用户丰富的历史行为中的多样性兴趣与该商品的关联。阿里妈妈团队提出了DIN网络进行改进,主要有如下两点创新:

  • 引入注意力机制来捕捉历史行为与当前商品的关联。用NMT的话来说,上文不同的单词对当前待生成的单词贡献不同,贡献高的应该赋予更大的权重,否则赋小
  • 设计两种训练技巧来帮助训练大规模稀疏神经网络:
    • mini-batch aware正则化
    • 自适应激活函数

网络结构

DIN

注意力机制

vU(A)=f(vA,e1,e2,…,eH)=∑j=1Ha(ej,vA)ej=∑j=1Hwjej \boldsymbol{v}_U(A)=f\left(\boldsymbol{v}_A, \boldsymbol{e}_1, \boldsymbol{e}_2, \ldots, \boldsymbol{e}_H\right)=\sum_{j=1}^H a\left(\boldsymbol{e}_j, \boldsymbol{v}_A\right) \boldsymbol{e}_j=\sum_{j=1}^H \boldsymbol{w}_j \boldsymbol{e}_j vU(A)=f(vA,e1,e2,,eH)=j=1Ha(ej,vA)ej=j=1Hwjej
需要注意的是,DIN舍弃了 ∑iwi=1\sum_{i}w_i = 1iwi=1 这个限制。主要是为了突出用户对历史兴趣的强烈程度,比如用户历史中对电子产品很感兴趣,那么他这类兴趣的得分就很高,其它兴趣得分则很小,兴趣差异得到放大。

两种训练技巧
  • mini-batch aware正则化:L2正则化是对模型所有的参数进行约束,训练成本高,而工业界推荐系统常常是大规模的稀疏网络。DIN团队对L2正则进行了近似计算,这样就能降低训练成本:
    L2(W)≈∑j=1K∑m=1Bαmjnj∥wj∥22 L_2(\mathbf{W}) \approx \sum_{j=1}^K \sum_{m=1}^B \frac{\alpha_{m j}}{n_j}\left\|\boldsymbol{w}_j\right\|_2^2 L2(W)j=1Km=1Bnjαmjwj22

  • 自适应激活函数:传统的激活函数在特定点处会出现突变,泛化性不好。DIN团队进行了改进:

dice

f(s)=p(s)⋅s+(1−p(s))⋅αs,p(s)=11+e−s−E[s]Var⁡[s]+ϵ f(s)=p(s) \cdot s+(1-p(s)) \cdot \alpha s, \quad p(s)=\frac{1}{1+e^{-\frac{s-E[s]}{\sqrt{\operatorname{Var}[s]+\epsilon}}}} f(s)=p(s)s+(1p(s))αs,p(s)=1+eVar[s]+ϵsE[s]1

实验结果

result

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值