SimGCL:Are Graph Augmentations Necessary? Simple GraphContrastive Learning for Recommendation 论文代码解读

一、前言

1、摘要

 CL通过学习更均匀的用户/项目表示,这隐式地减轻了流行度偏差。作者提出了一种简单的CL方法,该方法丢弃图增强,仅通过在嵌入空间中添加均匀噪声来自由调整学习表示的均匀性,从而创建对比视图。

2、介绍

CL应用于推荐的一种典型方法是,首先使用结构扰动(如随机边/节点的丢弃)来增强用户-项二部图,然后最大化通过图编码器学习的不同视图下表示的一致性。

 问题:当将CL与推荐集成时,我们真的需要图增强吗?

对推荐性能真正重要的是CL的损失,而不是图的增强。优化对比损失InfoNCE可以学习更统一的用户/项目表示,这在减轻流行偏差方面发挥了隐形的作用。

(图的增强并不是完全无用的,因为原始图的适当扰动有助于学习抗干扰的表示。然而,生成手工制作的图增强需要在训练过程中不断地重建图的邻接矩阵,这是相当耗时的。此外,删除一个临界边/节点可能会将一个连接图分割成几个断开的组件,这可能会使增广图和原始图共享很少的可学习不变性。)

3、贡献

在发现表示分布的均匀性是关键的基础上,我们开发了一种无图增强的CL方法,其中均匀性更可控。从技术上讲,我们遵循上图中所示的图CL框架,但我们放弃了基于dropout的图增强,而是在原始表示中添加随机均匀噪声,以实现表示层的数据增强。施加不同的随机噪声会在对比视图之间产生差异,而可学习的不变性仍然保持不变。与图增强相比,噪声版本直接将嵌入空间正则化,使其分布更均匀,易于实现,且效率更高。

二、传统的对比学习

1、SGL

在SGL中的联合学习方案被正式定义为:

 前者是BPR—loss,后者是 InfoNCE—loss

 其中𝑖,𝑗是采样批次中的用户/项目,z'和z''是从两个不同的基于dropout的增强子图中学习到的𝐿2归一化的𝑑维节点表示,𝜏>0是温度系数。CL损失鼓励了zi'和zi''之间的一致性,它们是同一节点𝑖的增广表示,是彼此的正样本,同时最小化了𝑧𝑖'和z𝑗'之间的一致性,它们是彼此的负样本。

LightGCN作为其主干,其消息传递过程定义为:

 2、图增强的必要性

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值