​ICLR 2023 高分论文 | 基于子图草图的图神经网络用于链路预测

本文介绍了一篇在ICLR 2023获得高分的论文,研究了基于子图草图的图神经网络(GNNs)用于链路预测(Link Prediction)。论文提出了一种新的、高效的全图GNN模型,通过结构特征计数和哈希方法,避免了子图构建的开销,提升了链路预测的性能。实验表明,这种方法在多个数据集上优于传统GNNs和启发式算法。

bdfd0a9d8316a3ea5c8aa388befc4729.gif


本文介绍了一项关于链路预测方向的研究,该论文在 openreview 上分别得到了 10, 8, 8, 8 的评分。作者研究了基于子图的用于链路预测(LP, Link Prediction) 方法,提出了一个新奇、高效的全图 GNN 模型。


5cf22889861151607597c4b6c29f2db9.png

论文标题:

Graph Neural Networks for Link Prediction with Subgraph Sketching

论文链接:

https://arxiv.org/abs/2209.15486

代码链接:

https://github.com/melifluos/subgraph-sketching

f37f43ff2b89dfa97a0aa9ce5295c61f.png

研究背景

链路预测问题有着许多实际的应用。比如,推荐系统,药物发现和知识图结构等。GNNs(Graph Neural Networks),尤其是 MPNNs(Message-Passing Neural Networks),在图和结点级的任务表现出色,但是在链路预测问题上表现不佳,甚至不如简单的启发式算法。

在链路预测问题上,MPNNs有一些问题。一是由于消息传递等价于 WL(Weisfeiler-Leman)图同构测试,普通的 MPNNs 没能力三角计数、计数公共的邻居或者计算简单的启发式。二是由于基于 GNN 的链路预测方法结合置换等变结构的结点表征,这使得结点 u 与其他的自同构结点有相同的表征,从而忽略了像结点间的距离等重要特征。

针对上述的问题,一些方法被提出来增强 GNN 的表达力,如增加不同结点 ID,结构计数等。然而,增加结点 ID 有着泛化、训练收敛的问题,结构计数需要预训练,开销大。受到链路预测启发式表现优异的灵感,SGNN(Subgraph GNNs)被提出去学习链路预测的启发式。

但是 SGNN 也面临着一些问题。一方面,构建子图开销大且难以并行;另一方面,由于需要构建子图,每一步推理的开销较大。

8665d8e613ce43f18a0b722a52b2ccfd.png

分析SGNN

SGNNs 可以分解为四个步骤,提取结点对的子图,用结构特征增强子图结点,通过 GNN 传播特征,使用读出(readout)函数链路预测。受到 SGNN 表现优异的启发,作者对上述部分进行了深入研究。

2.1 结构特征

由于 GNN 无法区分自同构结点,结构特征被构建增强 GNN 的表达能力。作者首先在 Cora、Citeseer 和 Pubmed 数据集上实验分析了 0-1 编码(ZO, Zero-One Encoding)、双半径结点标签编码(DRNL, Double-Radius Node Labeling)和 距离编码(Distance Encoding)三种主流的结构特征。

1fc96b63539147ff319189807939b5bc.png

由 Figure 2(a)可以看出结构特征对于链路预测任务是重要的。基于 DRNL 出色的表现,作者进一步分析了不同最大距离 r 下,DRNL 结构特征的重要性(如下图)。作者发现对预测表现贡献最大的是距离近的结构特征。

45b228a4baf65e21822326ab74f01be1.png

2.2 传播/GNN

通常在 SGNNs,结构特征与结点特征是一起传播的。如下图所示,作者实验发现如果用 MLP 处理结构特征而不与结点特征一起传播,模型可以表现更好。作者尝试不传播原始结点特征,效果并不如意,但是可以通过预传播原始结点特征恢复模型表现。

6e0971410a4877fb957bb98217730438.png

2.3 读出/ 池化函数

对于 SGNNs,读出函数可以选择池化子图中所有结点表征后过 MLP 或者使用边池化(通常用哈达玛积)。作者对比了两种读出函数,发现边池化效果要好于图池化,实验结果如 Figure 2(b)所示。

2.4 分析总结

经过上述的实验,作者认为:

  1. 结构特征带来很大的提升。

  2. 嵌入结构特征并在 SGNN 中传播,这种方式在效率和表现都不是最好的。

  3. 大多数重要的结构特征位于最短的距离。

  4. 对于读出函数,边等级的池化函数效果要好于图等级的池化函数。

49fa6c39ffc78ac4d8132f100be347cf.png

方法介绍

通过上述的实验与分析,作者认为如果必要的结构特征信息可以被编码在节点中,那么就无需为每对关联生成子图。作者设计了一个逐结点子图的草图来估计结构特征的全图 GNN 模型,从而避免构建子图。

3.1 结构特征计数

对于链接 ,距离 结点为 ,距离 结点为 的结点个数 。为了确保计算开销,作者在大小为 的接受域中计算该结点个数。为了减轻信息的丢失,作者计算了距离 结点为 ,距离 v 结点长度大于 的结点个数,。Figure 6 展示了在大小为 2 的接受域中,两个结构特征与 , 结点邻居的关系。

83682db4c5a4b37fc109955d2aabd9b6.png

作者进而得到如下关系式:

626578878aa02bbdc811207b01fe6f0e.png

c54228bb8c6cf1ad52025c3e7db953f9.png

其中, 是与结点 距离不超过 的邻居个数。

通过上式,作者敏锐的捕捉到了邻居计数中计算冗余,并使用基于统计、哈希的 Hyperloglog 和 MinHash 算法估算 和 ,而不用显示的创建子图。这便是逐结点子图的草图,也解释标题中草图的由来。

3.2 基于哈希高效链路预测

作者进一步提出了 ELPH 模型(ELPH, Efficient Link Prediction with Hashes)。它的特征传播满足标准 MPNN 的范式:

b7f54558c442079a71e69351f54b6438.png

7a7b37a3ccfe16d5d99ccc37bfdad822.png

871e090a9dcdd94a12652bb6fe23db28.png

其中, 是学习函数, 是一个局部置换不变聚合函数, 是原始结点特征, 和 分别是 MinHashing 和 Hyperloglog 单结点的草图。如上述公式,通过 MinHashing 和 Hyperloglog 单结点的草图信息,, 被估计,然后将估计的结构特征融合入消息传递中,从而免去了为每个关联创建子图,大大节省了计算开销。

最后,, 的关联概率被得到:

f5060b19d9e8520c89203e159b754038.png

其中,, 是接受域范围, 是一个 MLP, 是逐元素积。

3.3 利用预处理加速推理

由于显存容量是有限的,而现实里大规模的数据比比皆是,作者从大规模数据角度进一步增强 ELPH。由前述实验可知,嵌入结构特征并在 SGNN 中传播在效率和表现都不是最好的,而预传播结点特征表现很好。于是,作者提出了 ELPH 大尺度版本 BUDDY,使用了预传播结点特征与预计算结构特征来进一步加速模型推理。

55daa1770a88f38f46d82ca36cdc3c38.png

模型表现

作者最后在多个尺度的数据集将 ELPH 和 BUDDY 与启发式算法、传统 GNNs、主流 SGNNs 等方法进行对比。如下图可见,ELPH 在一般的数据集上表现优异,而 BUDDY 几乎超过了所有对比方法。

5c6fad23d70799b370124bdab62f6855.png

36f847c1cfb012cc97469ee2c6c3c571.png

文章总结

这是一篇非常高质量的图神经方面的论文。首先,针对 GNNs 在链路预测任务表现不佳的现象,作者分析了最先进的链路预测方法,确定每个部分的贡献并得到了有趣的结论。其次,作者敏锐的捕捉到基于子图的邻居计数中的计算冗余,并通过 Hyperloglog 和 MinHas估计结构特征。然后,作者设计智能、高效的全图 GNN 模型,同时考虑了大尺度数据集的情况。最后,多个数据集上的表现与理论分析都体现了该模型的优异。

合作联系: waimianzaixiayu@126.com

更多阅读

cd464f47ccb7fd23d76e8f9ee8f1c8a1.png

0bb6970bb89e8144a85d94265e002632.png

7432113b1d27950539a67c0d3fad3481.png

b143e5441d4f6a724fbed380f041ae7a.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

c2b8b31ca79688ea828abbed66f74559.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

16ac3ceb711a9d438b48826e9f89654a.jpeg

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值