图神经网络(GNN)是一类专门针对图结构数据的神经网络模型,在社交网络分析、知识图谱等领域中取得了不错的效果。近来,相关研究人员在GNN的可解释性、架构搜索、对比学习等方面做了很多探究。
本周精选了10篇GNN领域的优秀论文,来自宾夕法尼亚大学、国防科大、北航等机构。
为了方便大家阅读,只列出了论文标题、作者、ChatPaper综述等信息,如果感兴趣可点击论文链接查看原文,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。
1.Geometric Graph Filters and Neural Networks: Limit Properties and Discriminability Trade-offs 论文详情页
作者:Zhiyang Wang,Luana Ruiz,Alejandro Ribeiro
链接:https://www.aminer.cn/pub/6476d20cd68f896efaf727de/?f=cs
ChatPaper综述(大模型驱动):本文研究了从流形中采样生成图的图神经网络(GNN)和流形神经网络(MNN)之间的关系,分析了在使用适当的核时,卷积MNN和GNN在密集和中等稀疏的图上的性能。进一步证明了在这些图上的卷积滤波器和神经网络的误差界以及它们收敛到连续流形上的卷积滤波器和神经网络。研究表明,图滤波器在可辨别性和逼近流形滤波器期望行为的能力之间存在一个重要的权衡,但非线性性质的频率混合特性可以改善这种权衡。此外,本文还推导了从同一流形采样的几何图的可转移性结论,并在一个导航控制问题和一个点云分类任务上验证了所得结果。
2.Dink-Net: Neural Clustering on Large Graphs 论文详情页
作者:Yue Liu,Ke Liang,Jun Xia,Sihang Zhou,Xihong Yang,Xinwang Liu,Stan Z. Li
链接:https://www.aminer.cn/pub/6476d20cd68f896efaf727a0/?f=cs
ChatPaper综述(大模型驱动):本研究针对深度图聚类在处理巨大图形时存在的性能问题,提出了一种可扩展的深度图聚类方法Dink-Net,采用了扩张和收缩的思想来解决。该方法首先通过区分节点是否被扩充来自学习表示,同时初始化聚类中心作为可学习的神经参数,然后采用对抗性方式最小化聚类扩张误差和聚类收缩误差来优化聚类分布。实验结果和理论分析均表明了该方法的优越性。
3.Modeling Dynamic Heterogeneous Graph and Node Importance for Future Citation Prediction 论文详情页
作者:Hao Geng,Deqing Wang,Fuzhen Zhuang,Xuehua Ming,Chenguang Du,Ting Jiang,Haolong Guo,Rui Liu
链接:https://www.aminer.cn/pub/63aa965790e50fcafd007e2f/?f=cs
ChatPaper综述(大模型驱动):本文讨论了新出版论文未来引用计数预测的问题,并指出了现有方法大多忽略了学术网络中的动态异质图结构或节点重要性,提出了一种基于动态异质图和节点重要性的学习框架,以预测新出版论文未来的引用趋势。经过大规模数据集实验,该模型在各项指标上均显著优于现有的模型。
4.HyperFormer: Learning Expressive Sparse Feature Representations via Hypergraph Transformer 论文详情页
作者:Kaize Ding,Albert Jiongqian Liang,Bryan Perrozi,Ting Chen,Ruoxi Wang,Lichan Hong,Ed H. Chi,Huan Liu,Derek Zhiyuan Cheng
链接:https://www.aminer.cn/pub/647572d8d68f896efa7b7338/?f=cs
ChatPaper综述(大模型驱动):本文介绍了学习高维度但是稀疏特征表示的问题,这是信息检索中长期存在的问题。虽然最近的深度学习方法可以部分解决这个问题,但是它们经常无法处理大量稀疏特征,尤其是训练数据中频率较低的「尾特征值」。更糟糕的是,现有的方法不能明确利用不同实例之间的相关性来帮助进一步改进稀疏特征的表示学习,因为这种关系先验知识并未提供。为了解决这些挑战,本文从图学习的角度探讨了特征稀疏数据上的表示学习问题。具体而言,我们提出利用超图来模拟不同实例的稀疏特征,其中每个节点表示一个数据实例,每个超边表示一个不同的特征值。通过基于我们的超图变换器(HyperFormer)在构建的超图上传递消息,可以捕捉到学习的特征表达式不仅包括不同实例之间的相关性,还包括特征之间的相关性。我们的实验证明,所提出的方法可以有效地改进稀疏特征的表示学习。
5.GC-Flow: A Graph-Based Flow Network for Effective Clustering 论文详情页
作者:Tianchun Wang,Farzaneh Mirzazadeh,Xiang Zhang,Jie Chen
链接:https://www.aminer.cn/pub/647572d8d68f896efa7b72d2/?f=cs
ChatPaper综述(大模型驱动):本文介绍了一种新的基于图卷积网络和正则化流的流网络,称为GC-Flow。该方法能够同时建模类条件概率和类先验概率,并且具有高效的聚类能力。相比于传统的图卷积网络,GC-Flow 的重点更注重于提高聚类效果,而不是分类准确性。此外,该方法还可以通过调整邻接矩阵等参数来进一步提高聚类效果。
6.GIMM: InfoMin-Max for Automated Graph Contrastive Learning 论文详情页
作者:Xin Xiong,Furao Shen,Xiangyu Wang,Jian Zhao
链接:https://www.aminer.cn/pub/647572d8d68f896efa7b736b/?f=cs
ChatPaper综述(大模型驱动):本文介绍了一个自动化图形对比学习的方法——InfoMin-Max for automated Graph contrastive learning (GIMM)。该方法解决了许多自动数据增强的GCL方法无法保留关键信息的问题,同时也引入了随机性来稳定模型。实验表明,GIMM在无监督和半监督学习的节点和图分类方面表现优异,超越了现有的基于自动和手动数据增强的GCL方法。
7.Graph Inductive Biases in Transformers without Message Passing 论文详情页
作者:Liheng Ma,Chen Lin,Derek Lim,Adriana Romero-Soriano,Puneet K. Dokania,Mark Coates,Philip Torr,Ser-Nam Lim
链接:https://www.aminer.cn/pub/647572d8d68f896efa7b7405/?f=cs
ChatPaper综述(大模型驱动):本文介绍了目前在图数据上应用的Transformer模型,强调了图归纳偏好对于Graph Transformer的重要性,并探讨了在不使用信息传递机制的情况下如何将图归纳偏好引入Graph Transformer模型。文章提出了一个名为GRIT的新型Graph Transformer模型,该模型通过一系列理论和实证研究得出了一些新的架构改进,包括使用带有随机游走概率的学习相对位置编码、灵活的注意力机制、以及在每个层中注入度信息等。作者证明了GRIT的表达能力强,并在多种图数据集上实现了最先进的实验效果。该研究表明,不使用信息传递的Graph Transformer模型也可以具有很强的表现力和性能。
8.Graph Neural Convection-Diffusion with Heterophily 论文详情页
作者:KAI ZHAO,Qiyu Kang,Yang Song,Rui She,Sijie Wang,Wee Peng Tay
链接:https://www.aminer.cn/pub/64671271d68f896efaf15078/?f=cs
ChatPaper综述(大模型驱动):该论文提出一种新颖的图神经网络(GNN),用于处理具有异质性(heterophily)的图,解决现有GNNs难以处理异质性图导致性能下降的问题。该论文提出了一种基于对流扩散方程(Convection-Diffusion Equation,CDE)的模型,可以同时考虑同质性和异质性因素。实验结果表明,该框架可以在异质性图节点分类任务上实现与最先进方法相当的性能。
9.Confidence-Based Feature Imputation for Graphs with Partially Known Features 论文详情页
作者:Daeho Um,Jiwoong Park,Seulki Park,Jin young Choi
链接:https://www.aminer.cn/pub/63dcdb422c26941cf00b61df/?f=cs
ChatPaper综述(大模型驱动):本文研究在图学习任务中遇到的缺失特征填充问题。先前已经有几种方法处理了缺失特征的图学习任务,但是在高缺失率的情况下,它们无法避免性能显著下降。为了克服这个局限性,本文引入了一个新的概念,即节点特征中的通道自信度,为每个节点的填充通道特征分配自信度,以反映填充的确定性。然后,本文利用通道级别的最短路径距离在实际学习过程中设计了伪自信度,并用伪自信度代替不可用的真实自信度。基于伪自信度,本文提出了一种新的特征填充方案,执行通道间节点扩散和节点间通道传播。该方案即使在高缺失率(例如99.5%)的情况下也能持续存在,并在包含高缺失特征率的各种数据集上实现了半监督节点分类和链接预测的最新准确性。
10.IDEA: Invariant Causal Defense for Graph Adversarial Robustness 论文详情页
作者:Shuchang Tao,Qi Cao,Huawei Shen,Yunfan Wu,Bingbing Xu,Xueqi Cheng
链接:https://www.aminer.cn/pub/64702deed68f896efa520081/?f=cs
ChatPaper综述(大模型驱动):本文讨论了图神经网络(GNNs)在各种任务中取得了显著的成功,但它们对对抗攻击的脆弱性引起了对实际应用的担忧。现有的防御方法可以抵抗一些攻击,但在其他未知攻击下会产生无法承受的性能降低。本文提出了一种新的思路,即利用不变因果特征学习以实现图形对抗鲁棒性。同时,该方法也考虑了图形对抗攻击中的因果关系。实验结果表明,本方法在五个基准数据集上的性能显著优于所有基线方法,证明了其强大和不变的可预测性。
—————————————————————————————————————
AMiner官网:https://www.aminer.cn
本文列举了10篇关于图神经网络(GNN)的优秀论文,涉及可解释性、架构搜索、对比学习等多个研究方向。论文涵盖了流形神经网络的关系分析、大规模图聚类方法、动态异质图的引用预测、稀疏特征表示学习、基于图的聚类网络、自动化对比学习、图Transformer的改进、处理异质性的新模型、缺失特征的填充策略以及因果防御对抗攻击等主题。
2万+

被折叠的 条评论
为什么被折叠?



