多粒度用户兴趣感知图神经网络:提升会话推荐性能
1. 自监督学习
自监督学习是一种无监督学习方法,它通过数据自身的固有属性来标记正样本和负样本,无需人工干预。主要可分为对比学习和生成学习。
- 生成学习 :以自编码为代表,使用编码器将原始数据转换为向量表示,再通过解码器进行重构。
- 对比学习 :通常由代理任务和目标函数组成。代理任务自动生成正、负样本对,损失函数使用噪声对比估计(NCE)。著名的对比学习方法有SimCLR和MoCo。
自监督学习也被引入到与序列相关的推荐任务中,如S3 - Rec采用互信息最大化(MIM)原则建立属性、物品、子序列和序列之间的关联;S2 - DHCN首次将自监督学习引入基于会话的推荐,并在两个超图通道上应用对比学习以提高推荐性能;COTREC从两个不同角度探索会话的内部和外部连接性;MGS利用会话中的属性信息并采用对比学习策略来减少具有相似属性的相邻物品产生的噪声。自监督学习能有效缓解基于会话的推荐中出现的数据稀疏问题。
2. 问题定义
基于会话的推荐任务旨在根据用户有限的历史交互序列预测下一个物品。
- 物品集 :用 (V = {v_1, v_2, \ldots, v_{|V|}}) 表示物品集,其中 (|V|) 是物品的总数。
- 会话 :每个会话由多个按时间顺序排列的物品组成,记为 (s = {v_{s,1}, v_{s,2}, \ldots, v_{s,n}}),其中 (v_{s,i} \in V (1 \leq i \leq
超级会员免费看
订阅专栏 解锁全文
63

被折叠的 条评论
为什么被折叠?



