GNN论文周报|来自慕尼黑工业大学、密歇根大学、香港科技大学等机构前沿论文研究

本文汇总了10篇关于图神经网络(GNN)的最新研究,涉及可解释性、对抗训练、图稀疏化在脑图分析中的应用、异常检测、高效训练策略以及对比学习等主题。研究表明,对抗训练在GNN中的应用仍有挑战,而图的结构特性对模型性能有很大影响。同时,新的方法正在提升GNN的解释性和鲁棒性,以及在生物信息学和城市数据分析等领域的应用效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述
图神经网络(GNN)是一类专门针对图结构数据的神经网络模型,在社交网络分析、知识图谱等领域中取得了不错的效果。近来,相关研究人员在GNN的可解释性、架构搜索、对比学习等方面做了很多探究。

本周精选了10篇GNN领域的优秀论文,来自慕尼黑工业大学、密歇根大学、香港科技大学等机构。

为了方便大家阅读,只列出了论文标题、作者、AI华同学综述等信息,如果感兴趣可扫码查看原文,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。
在这里插入图片描述

1.Adversarial Training for Graph Neural Networks

作者:Lukas Gosch,Simon Geisler,Daniel Sturm,Bertrand Charpentier,Daniel Zügner,Stephan Günnemann
链接:https://www.aminer.cn/pub/649bb0eed68f896efa4ddd60/
ChatPaper综述:这个论文指出在图神经网络(GNN)中,对抗训练并没有像在图像领域那样成为一个有效的防御机制来对抗图结构的扰动。论文试图解决对抗训练存在的问题,具体包括:(1)克服了在之前的研究中采用的图学习框架的基本理论和实践限制;(2)发现基于可学习图扩散的更灵活的GNN能够适应对抗性扰动,并且学到的消息传递机制是自然可解释的;(3)引入了第一个面向结构扰动的攻击方法,该攻击能够同时针对多个节点,并能够处理全局(图级)和局部(节点级)的约束。通过这些贡献,论文证明了对抗训练是一种针对对抗性结构扰动的最先进的防御方法。

2.Interpretable Sparsification of Brain Graphs: Better Practices and Effective Designs for Graph Neural Networks

作者:Gaotang Li,Marlena Duda,Xiang Zhang,Danai Koutra,Yujun Yan
链接:https://www.aminer.cn/pub/649a5e2ad68f896efad847b6/
ChatPaper综述:这篇论文介绍了在神经科学和临床应用中使用的图分类中,密集的脑图存在计算挑战,包括高运行时间和内存使用以及有限的可解释性。作者发现先前的方法基于可解释性或与任务无关的属性去除噪声边缘,但这并不能保证在稀疏图上提高性能。此外,现有方法经常忽视在多个图之间进行集体边缘删除。作者通过引入迭代框架来解决这些问题,并得出以下结论:(i) 优先考虑可解释性的方法可能不适用于图稀疏化,因为它们可能降低图神经网络在图分类任务中的性能;(ii) 与后训练相比,同时学习边缘选择和GNN训练更有益;(iii) 在多个图之间共享边缘选择优于为每个图单独选择;(iv) 任务相关的梯度信息有助于边缘选择。基于这些发现,作者提出了一个新模型,可解释图稀疏化(IGS),通过减少55.0%的边缘,将图分类性能提高了最多5.1%。IGS确定的保留边缘提供了神经科学的解释,并得到了成熟的文献支持。因此,论文主要说明了在神经科学和临床应用中,如何利用图神经网络来稀疏脑图,以提高解释性和性能。

3.GADBench: Revisiting and Benchmarking Supervised Graph Anomaly Detection收藏论文

作者:Jianheng Tang,Fengrui Hua,Ziqi Gao,Peilin Zhao,Jia L

链接:https://www.aminer.cn/pub/6493c733d68f896efad19c6d/
ChatPaper综述:这篇论文提出了以下问题:1. 在一个标准的综合环境下,传统的图异常检测算法和最近流行的图神经网络如何表现?2. 图神经网络是否比如树集成等传统算法表现更好?3. 这些算法在大规模图上的效率如何?这些问题促使作者开发了GADBench,一个用于在静态图上进行监督异常节点检测的全面基准测试。他们对23个不同模型在十个真实世界的图异常检测数据集上进行了详细比较,这些数据集的节点数量从数千到数百万不等,最大达到约6百万。作者的主要发现是,简单的邻域集成树算法在所有其他基线模型(包括针对图异常检测任务的最新图神经网络)中表现最好。通过将GADBench作为一个开源工具提供,作者为图异常检测的当前进展提供了重要见解,并为未来的研究奠定了坚实的基础。他们的代码可在https://github.com/squareRoot3/GADBench上获取。

4.PolicyClusterGCN: Identifying Efficient Clusters for Training Graph Convolutional Networks

作者:Saket Gurukar,Shaileshh Bojja Venkatakrishnan,Balaraman Ravindran,Srinivasan Parthasarathy
链接:https://www.aminer.cn/pub/649a5e2ad68f896efad8479f/
ChatPaper综述:这篇论文主要解决的问题是如何通过在线强化学习(RL)框架来识别用于GCN训练的高效聚类。现有的子图采样方法如ClusterGCN和GraphSAINT依赖于启发式方法(如通过边界切割进行图的分区)来识别聚类,并在GCN训练期间将它们作为小批量处理。本文提出了PolicyClusterGCN,它使用RL框架来预测边的“重要性”权重,并通过聚类算法(Graclus)计算聚类。通过使用策略给出的聚类进行GCN训练,使用分类准确率计算奖励,通过标准的策略梯度算法训练策略网络。实验结果表明,PolicyClusterGCN在节点分类任务上优于现有的最先进模型。

5.Similarity Preserving Adversarial Graph Contrastive Learning

作者:Yeonjun In,Kanghoon Yoon,Chanyoung Park
链接:https://www.aminer.cn/pub/649a5e2ad68f896efad84565/
ChatPaper综述:该论文指出了图对比学习(GCL)方法在面对对抗性攻击时存在的问题。传统的GCL方法对原始图的自我监督信号高度依赖,而当图受到攻击时,原始图中已经包含了噪音,因此这些方法容易受到对抗性攻击的影响。为了增强对抗性鲁棒性,现有方法在GCL框架中采用对抗训练(AT),将受攻击图作为增强。然而,该论文发现现有的对抗训练GCL方法在提高鲁棒性的同时无法保持节点特征的相似性。因此,该论文提出了一种相似性保持的对抗图对比学习(SP-AGCL)框架,在该框架中,将干净图与具有不同特性的两个辅助视图(即节点相似性保持视图和对抗视图)进行对比。通过大量实验证明,SP-AGCL在多个下游任务上取得了竞争性的性能,并在多种情境中展现了其有效性,例如网络中存在对抗攻击、噪声标签和异类邻居等情况。

6.Predicting protein variants with equivariant graph neural networks

作者:Antonia Boca,Simon Mathis
链接:https://www.aminer.cn/pub/6493c733d68f896efad19c59/
ChatPaper综述:该论文指出了在预测优于野生型蛋白质的蛋白变异体方面,结构和序列方法之间存在研究差距。该论文旨在通过比较等变图神经网络(EGNNs)和基于序列的方法来识别有希望的氨基酸突变的能力,以填补这一研究差距。结果显示,我们提出的结构方法在经过显著减少的分子训练情况下,实现了与基于序列的方法相竞争的性能。此外,我们发现结合测定标记数据和结构预训练模型产生类似的趋势,与序列预训练模型相似。

7.Spatial Heterophily Aware Graph Neural Networks收藏论文

作者:Congxi Xiao,Jingbo Zhou,Jizhou Huang,Tong Xu,Hui Xiong
链接:https://www.aminer.cn/pub/6493c733d68f896efad19bfa/
ChatPaper综述:这篇论文解决了当前城市图中的空间异质性问题。尽管已经开发了一些用于处理异质性图的增强GNN架构,但城市图通常具有独特的空间异质性特性。该论文提出了一个名为Spatial Diversity Score的度量标准,用于定量测量空间异质性,并展示了它如何影响GNN的性能。实验证明,现有的异质性GNN在处理具有高空间异质性得分的城市图时仍然存在不足,这可能降低它们在城市应用中的有效性。为了解决这个问题,论文提出了一种称为Spatial Heterophily Aware Graph Neural Network(SHGNN)的方法,用于处理城市图的空间异质性。通过观察到城市图上空间接近的邻居节点对中心节点的差异更相似的模式,论文首先设计了一个旋转-缩放空间聚合模块,其核心思想是正确地将空间接近的邻居节点分组,并独立处理每个组,减少组内的异质性。然后,设计了一个异质性敏感的空间交互模块,以自适应地捕捉不同空间组中的共同性和差异性。在三个真实世界的城市数据集上进行了大量实验证明,我们的SHGNN相对于几个竞争对手具有明显的优势。

8.Structure-Aware DropEdge Towards Deep Graph Convolutional Networks

作者:Jiaqi Han,Wenbing Huang,Yu Rong,Tingyang Xu,Fuchun Sun,Junzhou Huang

链接:https://www.aminer.cn/pub/6493c733d68f896efad19bc9/
ChatPaper综述:这篇论文解释了当多个图卷积网络层叠在一起时,网络性能显著下降的问题。作者指出,导致深度图卷积网络失败的主要因素是过度平滑化,随着网络深度的增加,将网络输出与输入隔离开来,削弱了网络的表达能力和可训练性。为了解决这个问题,作者在已有的DropEdge技术基础上提出了DropEdge++方法,其中包括两种结构感知采样器:层依赖采样器和特征依赖采样器。对于层依赖采样器,作者发现从底层采样边的数量逐渐增加比逐渐减少以及DropEdge方法能获得更好的性能。作者通过一个与过度平滑化密切相关的指标Mean-Edge-Number (MEN)理论上揭示了这一现象。对于特征依赖采样器,作者将边的采样概率与节点对的特征相似性相关联,并证明它进一步相关了输出层的收敛子空间与输入特征。通过在几个节点分类基准测试上进行广泛实验,包括全监督和半监督任务,证明了DropEdge++的有效性以及与不同骨干网络的兼容性,实现了比DropEdge和无采样版本更好的性能。

9.A Semi-Autoregressive Graph Generative Model for Dependency Graph Parsing

作者:Ye Ma,Mingming Sun,Ping Li
链接:https://www.aminer.cn/pub/6493c733d68f896efad19b7e/
ChatPaper综述:该文研究了图神经网络(GNNs)的解释问题。GNNs由于黑盒特性使得用户难以理解和信任模型,从而限制了其应用性。现有的方法往往存在不准确性和不自然性的问题。为了解决这些问题,研究者提出了DEGREE方法,通过对GNNs的信息生成和聚合机制进行分解,可以追踪输入图中特定组件对最终预测的贡献。在此基础上,他们进一步设计了一个子图级别的解释算法,揭示了被先前方法忽视的图节点之间的复杂互动。通过利用GNN的特性,该算法的效率可以进一步提高。最后,他们在合成和真实世界数据集上进行了定量和定性实验,以证明DEGREE在节点分类和图分类任务上的有效性。

10.Explaining and Adapting Graph Conditional Shift

作者:Qi Zhu,Yizhu Jiao,Natalia Ponomareva,Jiawei Han,Bryan Perozzi
链接:https://www.aminer.cn/pub/648000a9d68f896efaa12362/
ChatPaper综述:这项研究解释了关于图条件转移的问题,并提出了一种适应图结构数据的方法。该研究发现,图异特性和模型架构会加剧条件转移,从而导致性能下降。为了解决这个问题,研究团队提出了一种估计和最小化无监督领域适应中的条件转移的方法。通过控制性的合成实验,他们的算法在面对分布转移时展现出了稳健性,相较于第二好的算法,其绝对ROC AUC的改进率达到了10%。此外,在节点分类和图分类的全面实验中,他们的算法展现出了对各种分布转移的稳健性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值