Self-supervised Graph Learning for Recommendation-----SIGIR2021(个人笔记)

本文介绍了SIGIR2021上一篇关于自监督图学习(SGL)在推荐系统中的应用的研究。针对基于GCN的推荐模型存在的稀疏监督信号、数据分布不均和交互噪声问题,SGL提出了一种新的学习范式,通过图结构的数据增强和对比学习来提供辅助信号,提高了推荐模型的性能。在三个基准数据集上的实验表明,SGL在减少程度偏差、增加对交互噪声的鲁棒性方面表现优越。

论文:自监督图学习推荐系统 (SIGIR2021)

文章链接:http://staff.ustc.edu.cn/~hexn/papers/sigir21-SGL.pdfhttp://staff.ustc.edu.cn/~hexn/papers/sigir21-SGL.pdf

 Code:https://github.com/wujcan/SGL-TensorFlowhttps://github.com/wujcan/SGL-TensorFlow

GitHub - wujcan/SGL-Torch: SGL PyTorch versionhttps://github.com/wujcan/SGL-Torch


1. 前言

1.1 提出的问题(当前基于GCN的推荐模型)

  • 稀疏监督信号 :大多数模型在监督学习范式下处理推荐任务,监督信号来自观察到的用户项目交互。然而,与整个交互空间相比,观察到的交互非常稀疏,不足以学习高质量的表示。
  • 不均的数据分布 : 观察到的相互作用通常呈现幂律(长尾)分布,其中长尾由缺乏监督信号的低度项(冷门项目)组成。相比之下,在邻域聚合和监督损失中,高次项(热门项目)出现的频率更高,从而对表示学习产生更大的影响。因此,GCN很容易偏向于热门项目,从而忽略了冷门(长尾)项目。
  • 噪声的交互干扰 :用户提供的大多数反馈都是隐式的(例如,点击、查看),而不是显式的(例如,评分、喜欢/不喜欢)。因此,观察到的交互通常包含噪音,例如,用户被误导点击了某个商品,在浏览或使用后感觉并不感兴趣。GCNs中的邻域聚合方案扩大了交互对表示学习的影响,使学习更容易受到交互噪声的影响。

1.2 做出的贡献 

  • 我们设计了一种新的学习范式SGL,它将节点自动识别为自我监督任务,为表示学习提供辅助信号
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值