【论文阅读】:Embedding-based News Recommendation for Millions of Users

新闻推荐深度学习模型
介绍了一种基于深度学习的新闻推荐模型,通过去噪自编码器表示文章,RNN捕捉用户浏览历史,内积计算匹配度,实现在雅虎日本的成功应用。

非常实用性的一个推荐新闻的模型

摘要:

新闻推荐非常重要,但是传统的基于用户id的协同过滤和低秩分解推荐算法不完全适用于新闻推荐,因为新闻类文章过期的太快了

基于单词的方法性能不错,但是有处理同义词和定义用户需求的问题

因此本文提出一种基于嵌入式的算法,基于一种去噪自编码器的变体的方法来表示文章;用RNN以浏览历史为输入序列表示用户;用内积计算来匹配用户和文章

 

1 introduction

新闻推荐的三个关键点:

  •  理解文章内容
  •  理解用户喜好
  • 基于两者选出每个用户的文章列表

 

符合这三点的baseline模型是将文章表示成单词的word的集合,用户的表示是该用户浏览过的文章包含的word的集合,用候选文章和浏览历史比较共同出现的word来判断点击的概率,这个模型简单,容易学习;但是缺点是不能很好的判断近义词,也不能很好的更充分的利用用户的浏览历史

 

rnn擅长处理输入序列长度变化的情况,但是只用这个模型,不能符合要求的响应速度

所以本文提出的模型分为三步,端到端,分布式:

  •  - 基于去噪自编码器的分布式表示方法表示出文章
  •  - 以浏览历史为RNN的输入 生成用户表示
  •  - 用内积的方式匹配出用户和文章

 

该方法的核心就是用内积计算来衡量用户-文章的匹配度,非常快速。现在这种方法已经应用在雅虎日本的新闻推荐了

 

2、our service and process flow

本文针对的是雅虎日本app中用户定制模块的部分

用户登录时为用户选择匹配列表的过程如下:

  •  -登录时识别出更具浏览历史提前计算出的用户特征
  •  - 匹配:根据用户特征计算出所有可用的文章
  •  - 排序:根据一些特征优先级重新排序
  •  - 去重
  •  - 插入广告(如果需要的话)

 

这些过程非常的快

排序时除了考虑相关度,还会考虑文章的页码数以及新鲜程度等

用cos距离来计算文本的相似度,贪心的跳过重复的文章。如果一篇文章和优先级更高的文章的相似度超过一定值,就舍弃

 

3、artical representations

得到文章的表示方式

 

为了让输入的两篇文章x1,x2相近时得到的h1,h2内积之和大,对原本的去噪自编码器进行了修改,输入变为(x0,x1,x2)三元输入组,x0 x1是同类(相似)的文章,x2是不同的,在loss函数中添加惩罚来达到训练效果

 

得到的h就是后面要用来计算的

 

4、 user representation

通过用户的浏览历史来计算用户特征,包括的简单的word-based  baseline模型,以及普通rnn形式、lstm形式和gru形式

其中a表示文章集合A中的一篇文章(用一种形式表示出来的),u表示一位用户,某个用户浏览的一系列文章就构成了用户u的浏览历史,用户通过推荐李彪点开文章才构成session,用s表示,下标p表示该文章在推荐列表中的位置

关键的目标是:

找到表示用户和文章相关性的函数R和通过浏览历史构建用户状态的函数F,满足上图的性质,其中P+表示推荐列表中用户点击过的文章,P-则是没有点击的

考虑到响应时间的限制,R必须是可以快速计算的,由于文章多而且时效端,也没法提前计算好;但是对于F却有比较充足的时间可以计算

因此,R就用内积计算来进行,

只需要优化表示用户状态的函数F:

由于实际中点击的概率跟文章在session中的位置有关系,所以加了一个bias

 

word-based模型

BoW词袋  建立一个大的词表V

相关性就是交集的单词有多少,有就+1

问题是非常稀疏,也不能处理同义词;由于浏览记录被认为是一个单词的集合,所以浏览的先后顺序和频率就丢失了

 

decaying model

使用第三部分所得的h来表示文章

用加权和来表示整个的浏览历史,这样根据系数可以调整浏览历史的权重

 

RNN model

简单RNN 

 毕竟decaying model是线性的,很多信息拿不到;而且ut是和上一个的状态ut-1有关系的,因此使用rnn模型

这里的激活函数用tanh,用随机梯度下降来优化

 

LSTM

GRU

5、 offline experiments

雅虎日本主页的数据,每个用户随机选择了超过两周的数据

结果:

6 deployment

向上部署以GRU的模型作为proposd bucket,以Bow模型为control bucket作对比(1%)

提前计算用户特征ut,当用户访问该服务时,用内积计算出一段时间内新出的新闻和用户的相关度

去重后按照从高到低相关性排序

线上的度量包括:sessions(用户每天使用推荐服务的平均时间) duration(看推荐列表以及点进去后的时间) clicks(在推荐列表中点进去的次数) CTR(点击数除以推荐列表中的展示出的文章数)

将用户分为重度、中度和轻度用户

结果很好

部署大规模基于深度学习的模型时会遇到一些挑战:

学习时间长;更新困难

因此是用两个模型轮流来,以便进行更新

7 related work

8 conclusion

 

 

 

 

 

### 基于 Transformer 的序列推荐系统 (TSR) 实现与概述 基于 Transformer 的序列推荐系统(Transformer-based Sequential Recommendation System, TSR)是一种利用自注意力机制来捕捉用户行为序列中长期依赖关系的方法。这种方法通过建模用户的动态兴趣,能够更有效地预测用户可能感兴趣的商品或服务。 #### 1. Transformer 架构的核心概念 Transformer 是一种由 Vaswani 等人在论文《Attention is All You Need》中提出的神经网络架构[^3]。它主要依靠自注意力机制(Self-Attention Mechanism),能够在处理长序列数据时捕获全局上下文信息。相比于传统的 RNN 或 LSTM 模型,Transformer 不仅能并行化训练过程,还能更好地学习远距离依赖关系。 在推荐系统的背景下,Transformer 被用来分析用户的历史交互记录,从而推断其未来的偏好。具体来说: - **输入表示**:用户的行为历史被编码为一系列嵌入向量 \( \{e_1, e_2, ..., e_n\} \),其中每个向量代表一项商品或者一次互动。 - **位置编码**:为了保留时间顺序信息,通常会加入绝对或相对的位置编码 \( PE_{pos} \)[^4]。 - **自注意力层**:该层允许模型关注整个序列中的重要部分,而不仅仅是最近的几个项目。 以下是 Transformer 推荐模型的一个简化版本实现示例: ```python import torch.nn as nn class TransformerLayer(nn.Module): def __init__(self, d_model=512, nhead=8, num_layers=6): super(TransformerLayer, self).__init__() encoder_layer = nn.TransformerEncoderLayer(d_model=d_model, nhead=nhead) self.transformer_encoder = nn.TransformerEncoder(encoder_layer, num_layers=num_layers) def forward(self, src): output = self.transformer_encoder(src.permute(1, 0, 2)) return output[-1] class SequenceRecommendationModel(nn.Module): def __init__(self, vocab_size, embedding_dim=512, nhead=8, num_layers=6): super(SequenceRecommendationModel, self).__init__() self.embedding = nn.Embedding(vocab_size, embedding_dim) self.positional_encoding = PositionalEncoding(embedding_dim) self.transformer = TransformerLayer(d_model=embedding_dim, nhead=nhead, num_layers=num_layers) self.fc_out = nn.Linear(embedding_dim, vocab_size) def forward(self, input_seq): embedded = self.embedding(input_seq) encoded_input = self.positional_encoding(embedded) transformer_output = self.transformer(encoded_input) prediction_scores = self.fc_out(transformer_output) return prediction_scores ``` 上述代码定义了一个简单的基于 Transformer 的推荐模型框架,其中包括嵌入层、位置编码以及最终的全连接输出层用于生成评分矩阵。 #### 2. 多行为推荐中的应用 对于多行为场景下的推荐问题,可以扩展基础的 Transformer 结构以适应不同的行为类型。例如,在给定多种行为模式的情况下,可以通过引入额外的行为特征维度或将每种行为视为独立子任务的方式增强表达能力[^1]。此外,还可以借鉴图卷积网络的思想构建隐含的关系结构[^2],进一步提升性能表现。 #### 3. 总结 综上所述,基于 Transformer 的序列推荐技术凭借强大的上下文理解能力和灵活的设计空间成为当前研究热点之一。然而值得注意的是,实际部署过程中还需要考虑计算资源消耗等因素的影响。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值