一、前言
1、摘要
传统模型在使用大型图上的非线性激活进行训练时面临困难。此外,由于图卷积运算的过度平滑效应,大多数基于GCN的模型无法对深层进行建模。
在本文中,从两个方面改进了基于GCN的CF模型。
首先,去除非线性以提高推荐性能,这与简单图卷积网络中的理论一致。
其次,我们通过计算压缩图上的网络嵌入来获得图中每个节点的嵌入初始化,这缓解了稀疏交互数据的图卷积聚合操作中的过平滑问题。
图1:标准GCN(左)和SGCF(右)的说明。标准GCN需要反复执行N层消息传递,以获得用于大规模图结构训练的最终嵌入. 同时,SGCF只有一层具有压缩图并消除了自连接、特征转换和非线性激活等其他操作,大大提高了训练效率,有助于实际部署。
2、介绍及相关工作
现有的基于GCN的CF模型比以往任何时候都更加复杂,旨在捕捉更高阶的协作信号。这种复杂的模型很难用大型图进行训练,并带来了效率和可扩展性的挑战,
LightGCN和SGC所做的简化并没有多大帮助。到目前为止,如何提高GCN模型的效率,同时保持其推荐的有效性仍然是一个悬而未决的问题。
以下贡献:
通过反复消除GCN层之间的非线性并将所得函数压缩为单个线性变换,从经验上降低了GCN的过度复杂性。
提出了SGCF,它在很大程度上简化了模型设计,只在GCN中包括最重要的组件