深度学习在推荐系统中的应用及代码集锦(1)

本文汇总了六篇关于深度学习应用于推荐系统的文章,包括ConvMF、CF-NADE、协同RNN、基于自编码器的混合推荐系统、内容感知音乐推荐和TransNets模型。这些模型通过卷积神经网络、循环神经网络和自编码器等技术,结合用户上下文、序列信息和内容特征,提高推荐的准确性和个性化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

[1] Convolutional Matrix Factorization for Document Context-Aware 

Recommendation

Donghyun Kim et al.

RecSys 2016

http://uclab.khu.ac.kr/resources/publication/C_351.pdf

这篇文章提出一种能够利用上下文信息的推荐模型,卷积矩阵分解 (convolutional matrix factorization,ConvMF),这种模型将卷积神经网络融入到概率矩阵分解中。这种做法可以捕捉文档的上下文信息,进而提高打分的预测准确率。

模型图示如下

640?wx_fmt=png

640?wx_fmt=png

数据集统计信息如下

640?wx_fmt=png

参数设置如下

640?wx_fmt=png

结果如下

640?wx_fmt=png

各因素的影响如下

640?wx_fmt=png

下面是参数分析

640?wx_fmt=png

代码地址

https://github.com/cartopy/ConvMF

数据集地址

http://dm.postech.ac.kr/~cartopy/ConvMF/data/movielens.tar

http://dm.postech.ac.kr/~cartopy/ConvMF/data/aiv.tar

PPT 

http://dm.postech.ac.kr/~cartopy/ConvMF/ConvMF_RecSys16_for_public.pdf


[2] A Neural Autoregressive Approach to Collaborative Filtering

Yin Zheng et al.

ICML 2016

https://pdfs.semanticscholar.org/f5e6/3fb54e1e338c246b20aacf1b3d629b8baf3d.pdf

这篇文章提出了CF-NADE结构,即神经自回归结构,可以用于协同过滤。该结构源于基于限制性玻尔兹曼机 (Restricted Boltzmann Machine,RBM)的协同过滤模型和神经自回归分布估计(Neural Autoregressive Distribution Estimator ,NADE)。这篇文章通过不同评分之间参数共享来提升模型效果。CF-NADE的因子分解版本具有更好的扩展性。此外,作者考虑了偏好的有序性,提出有序的损失函数来优化CF-NADE,用以提升模型效果。CF-NADE可以扩展到深层模型,此时会增加一定的计算复杂度。

实验结果如下

640?wx_fmt=png

下面是各方法效果对比

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

配置及耗时统计如下

640?wx_fmt=png

代码地址

https://github.com/Ian09/CF-NADE


[3] Collaborative Recurrent Neural Networks for Dynamic Recommender Systems

Young-Jun Ko,Lucas Maystre,Matthias Grossglauser 

ACML 2016

http://proceedings.mlr.press/v63/ko101.pdf

这篇文章的思想源于用于协同过滤的隐含因子模型和语言建模,基于循环神经网络提出了有一种协同序列模型。这种模型可以捕捉用户的上下文状态,将其表示为个性化隐含向量,并且将商品表示为一种实值嵌入。

处理序列的算法伪代码如下

640?wx_fmt=png

协同RNN训练伪代码如下

640?wx_fmt=png

数据集统计信息如下

640?wx_fmt=png

算法效果比较如下

640?wx_fmt=png

640?wx_fmt=png

代码地址

https://github.com/lca4/collaborative-rnn


[4] Hybrid Recommender System based on Autoencoders

Florian Strub, Romaric Gaudel, Jérémie Mary

the 1st Workshop on Deep Learning for Recommender Systems 2016

https://hal.inria.fr/hal-01336912v2/document

这篇文章的损失函数能够对缺失值自适应,而且可以融入一些辅助信息,比如年龄,性别等。

各算法效果对比如下

640?wx_fmt=png

640?wx_fmt=png

各数据集耗时统计及所需资源如下

640?wx_fmt=png

代码地址

https://github.com/fstrub95/Autoencoders_cf


[5] Content-Aware Collaborative Music Recommendation Using Pre-trained Neural Networks

Dawen Liang, Minshu Zhan, Dan Ellis

ISMIR 2015

http://dawenl.github.io/publications/LiangZE15-ccm.pdf

这篇文章利用语义标注信息训练基于内容的神经网络模型,并将其作为协同过滤模型中的先验知识。

各模型效果对比如下

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

代码地址

https://github.com/dawenl/content_wmf


[6] TransNets: Learning to Transform for Recommendation

Rose Catherine, William Cohen

RecSys 2017

https://cseweb.ucsd.edu/classes/fa17/cse291-b/reading/p288-catherine.pdf

这篇文章提出的模型为TransNets,这种模型是对DeepCoNN的一种扩展,扩展思路在于加入了一个隐含层来表示目标用户-目标商品对。该文作者还对这一层加入了正则。

这篇论文基于卷积神经网络来处理文本,CNN处理文本的一般结构如下

640?wx_fmt=png

DeepCoNN的结构如下

640?wx_fmt=png

TransNets结构如下

640?wx_fmt=png

训练TransNets的伪代码如下

640?wx_fmt=png

对输入进行变换以及测试TransNets的伪代码如下

640?wx_fmt=png

扩展的TransNets子结构如下

640?wx_fmt=png

数据集统计信息如下

640?wx_fmt=png

各方法效果对比如下

640?wx_fmt=png

原始评论与预测评论对比如下

640?wx_fmt=png

代码地址

https://github.com/rosecatherinek/TransNets

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值