A Comprehensive Survey on Graph Neural Networks--图神经网络综合研究

文章目录

一、图神经网络简史

图神经网络的概念首先由 Gori 等人(2005)[16] 提出,并由 Scarselli 等人(2009)[17] 进一步阐明。这些早期的研究以迭代的方式通过循环神经架构传播邻近信息来学习目标节点的表示,直到达到稳定的固定点。该过程所需计算量庞大,而近来也有许多研究致力于解决这个难题。在本文中,图神经网络代表的是所有用于图数据的深度学习方法。

受到卷积网络在计算机视觉领域所获巨大成功的激励,近来出现了很多为图数据重新定义卷积概念的方法。这些方法属于图卷积网络(GCN)的范畴。Bruna 等人(2013)提出了关于图卷积网络的第一项重要研究,他们基于谱图论(spectral graph theory)开发了一种图卷积的变体。自此,基于谱的图卷积网络不断改进、拓展、进阶。由于谱方法通常同时处理整个图,并且难以并行或扩展到大图上,基于空间的图卷积网络开始快速发展。这些方法通过聚集近邻节点的信息,直接在图结构上执行卷积。结合采样策略,计算可以在一个批量的节点而不是整个图中执行,这种做法有望提高效率。

除了图卷积网络,近几年还开发出了很多替代的图神经网络。这些方法包括图注意力网络(GAT)、图自编码器、图生成网络以及图时空网络。关于这些方法的分类细节详见第三章。

图神经网络相关研究。Bronstein 等人用符号几何深度学习概述了非欧几里得领域的深度学习方法,包括图和流形。虽然这是对图卷积网络的第一次回顾,但这一项研究遗漏了几个基于空间的重要方法,包括 [15], [19], [24], [26], [27], [28],这些方法更新了最新的基准。此外,这项调查没有囊括很多新开发的架构,这些架构的重要性不亚于图卷积网络。

对于另一项研究,Battaglia 等人 [29] 将图网络定位为从关系数据中学习的构建块,并在统一的框架下回顾了部分图神经网络。然而,他们整体的框架是高度抽象的,失去了每种方法在原论文中的见解。Lee 等人 [30] 对图注意力模型(一种图神经网络)进行了部分调查。最近,Zhang 等人 [31] 提出了一项关于图深度学习的最新调查,却忽略了对图生成网络和图时空网络的研究。总之,现有的研究没有一个对图神经网络进行全面的回顾,只覆盖了部分图卷积神经网络且检查的研究有限,因此遗漏了图神经网络替代方法的最新进展,如图生成网络和图时空网络。

图神经网络 vs. 网络嵌入。对图神经网络的研究与图嵌入或网络嵌入紧密相关,这也是数据挖掘和机器学习社区日益关注的一个话题 [32] [33] [34] [35], [36], [37]。网络嵌入旨在通过保留网络拓扑架构和节点内容信息,将网络顶点表示到低维向量空间中,以使任何后续的图分析任务(如分类、聚类和推荐)都可以通过使用简单的现成学习机算法(如用于分类的支持向量机)轻松执行。许多网络嵌入算法都是无监督算法,它们大致可分为三组 [32],即矩阵分解 [38], [39]、随机游走 [40] 和深度学习方法。用于网络嵌入的深度学习方法同时还属于图神经网络,包括基于图自编码器的算法(如 DNGR [41] 和 SDNE [42])和具有无监督训练的图卷积神经网络(如 GraphSage [24])。图 2 描述了本文中网络嵌入和图神经网络的区别。

在这里插入图片描述图2:网络嵌入 vs 图神经网络。

二、现阶段研究现状

近年来,从图像分类到视频处理再到语音识别和自然语言处理,深度学习已经变革了多项机器学习的任务。这些任务中的数据通常表示在欧几里得空间中。然而,越来越多的应用使用非欧几里得域生成的数据,并将它们表示为具有复杂关系和相互依赖的关系图。虽然图数据的复杂性对现有的机器学习的算法提出了重大的挑战,但最近许多研究开始将深度学习方法扩展到图数据。

本文综述了数据挖掘和机器学习领域中的图神经网络(GNN),并按照新的方法对图神经网络的最新进展进行了分类。在关注图卷积网络的同时,他们还回顾了最近开发的其他架构,例如图注意力网络,图自编码器,图生成网络,以及图时空网络等。我们还进一步讨论了图神经网络在多个领域的应用,并总结了不少学习任务现有算法的开源代码及基准。最后, 我们还提出了这一快速发展领域的研究方向。

三、引言

神经网络最近的成功促进了模式识别和数据挖掘的研究。许多机器学习任务,例如目标检测[1],[2],机器翻译[3],[4]和语音识别[5],它们曾经高度依赖于手工特征工程来提取信息量丰富的特征集,通过各种端到端的深度学习范例(例如,卷积神经网络(CNN)[6],长期短期记忆(LSTM)[7]和自动编码器)进行了革新。深度学习在许多领域的成功部分归因于快速发展的计算资源(例如GPU)和大量训练数据的可用性,部分归因于深度学习从欧几里得数据中提取潜在表示的有效性(例如,图片,文字和视频)。以图像分析为例,图像可以表示为欧几里得空间中的规则网格。卷积神经网络(CNN)能够利用图像数据的平移不变性,局部连通性和合成性[8],因此,CNN可以提取与整个数据集共享的有意义的局部特征用于各种图像分析任务。

尽管深度学习在欧几里得数据上取得了巨大的成功,但越来越多的应用程序从非欧几里德领域生成数据,需要对其进行有效地分析。例如,在经济方面,基于图的学​​习系统能够利用用户与产品之间的互动[9],[10],[11]提出高度准确的建议。在化学中,分子被建模为图形,需要鉴定其生物活性以进行药物开发[12],[13]。在引文网络中,论文通过引文相互链接,需要将它们分为不同的组[14],[15]。图形数据的复杂性对现有的机器学习算法提出了重大挑战。这是因为图形数据是不规则的。每个图具有可变大小的无序节点,并且图中的每个节点具有不同数量的邻居,从而导致一些重要的操作(例如卷积),这些操作很容易在图像域中计算,但不适用于该图域了。此外,现有机器学习算法的核心假设是实例彼此独立。但是,对于图数据而言,情况并非如此,在这种情况下,每个实例(节点)通过一些复杂的链接信息与其他实例(邻居)相关联,该链接信息用于捕获数据之间的相互依赖性,包括引用,友谊和交互

最近,越来越多的研究开始将深度学习方法应用到图数据领域。受到深度学习领域进展的驱动,研究人员在设计图神经网络的架构时借鉴了卷积网络、循环网络和深度自编码器的思想。为了应对图数据的复杂性,重要运算的泛化和定义在过去几年中迅速发展。例如,图 1 展示了受标准 2D 卷积启发得到的图卷积。本文旨在对这些方法进行全面概述,受众包括想要进入这一快速发展领域的研究人员和想要对比图神经网络算法的专家

在这里插入图片描述
图1:2D 卷积 vs. 图卷积

四、本文作出的贡献

  • 新的分类体系:考虑到深度学习在图数据上的研究与日俱增,我们提出了图神经网络(GNN)的新分类体系。在这种分类体系下,GNN 被分成了 5 个类别:图卷积网络、图注意力网络、图自编码器、图生成网络和图时空网络。我们确定了图神经网络和网络嵌入之间的区别,并在不同的图神经网络架构之间建立了联系。

  • 全面的概述:这个综述提供了在图数据上的现代深度学习技术的全面概述。对每一种类型的图神经网络,我们提供了表征算法的细节描述,并做了必要的对比和对应算法的总结。

  • 丰富的资源:这篇综述提供了图神经网络的丰富资源,其中包括当前最佳算法、基准数据集、开源代码和实践应用。这篇综述可以作为理解、使用和开发不同实际应用的深度学习方法的实践指南。

  • 未来方向:这篇综述还强调了已有算法的当前限制,指出了这个快速发展领域未来的可能方向。

五、定义

在这一部分,提供基础的图概念的定义,为了方便查询,在表1中总结了常用的符号。

在这里插入图片描述
表1:常用符号
相关备注解释:
Concatenation of A and B :A和B的串联。
The set of nodes in a graph :图中的节点集

定义1(图):图是 G \mathcal{G} G =(V,E,A),其中V是节点集,E是边集,而A是邻接矩阵。在图中,令 v i v_{i} vi∈V表示节点,而 e i j = ( v i , v j ) ∈ E e_{i j}=\left(v_{i}, v_{j}\right) \in E eij=(vi,vj)E表示边。邻接矩阵A是一个N×N矩阵,如果 e i j ∈ E e_{i j} \in E eijE,则 A i j = w i j > 0 A_{i j}=w_{i j}>0 Aij=wij>0,如果 e i j ∉ E e_{i j} \notin E eij/E,则 A i j = 0 A_{i j}=0 Aij=0。节点的度数是与其连接的边数,正式定义为度 degree ⁡ ( v i ) = ∑ A i \operatorname{degree}\left(v_{i}\right)=\sum A_{i} degree(vi)=Ai,一个图可以与节点属性X关联,其中 X ∈ R N × D X \in R^{N \times D} XRN×D一个特征矩阵,其中 X i ∈ R D ′ X_{i} \in R^{D^{\prime}} XiRD表示节点 v i v_{i} vi的特征向量。在D =1的情况下,我们用X替换 X i ∈ R D X_{i} \in R^{D} XiRD来表示图的特征向量。

定义2(有向图):有向图是所有边都从一个节点指向另一个节点的图。对于有向图, A i j ≠ A j i A_{i j} \neq A_{j i} Aij=Aji。无向图是所有边均无方向的图形。对于无向图, A i j = A j i A_{i j}=A_{j i} Aij=Aji

定义3(时空图):时空图是特征图X随时间演变的属性图。它定义为G =(V,E,A,X),其中X∈RT×N×D,其中T是时间步长。

六、分类与框架

1.分类

这一部分内容给出了图神经网络的分类方法,我们考虑到了所有能与神经网络架构组合成图神经网络的可微图模型,把图卷积神经网络最终分类为:图卷积网络、图注意力网络、图自编码器、图生成网络和图时空网络。在这些网络中,图卷积网络在捕捉架构依存关系上扮演着核心的角色。如下图 3 所示,属于其他类别的方法部分使用图卷积网络作为基础。表 2 总结了每个类别的代表性方法。

在这里插入图片描述图3:图神经网络分类

在这里插入图片描述表2:图神经网络代表性论文

1.1图卷积网络(GCN)

图卷积网络概括了从传统数据(图像或网格)到图数据的卷积运算。关键是要学习一个函数f,通过聚集其自身的特征 X i X_i Xi和邻居的特征 X j X_j Xj来生成节点 v i v_i vi的表示,其中 j ∈ N ( v i ) j \in N\left(v_{i}\right) jN(vi)。图4显示了用于节点表示学习的GCN过程。图卷积网络在建立许多其他复杂的图神经网络模型(包括基于自动编码器的模型,生成模型和时空网络等)中起着核心作用。图5展示了基于GCN的几种图神经网络模型。

在这里插入图片描述
图4:具有多个GCN层的图卷积网络的一种变体[14]。GCN层通过汇总其邻居的要素信息来封装每个节点的隐藏表示。特征汇总后,将非线性变换应用于结果输出。通过堆叠多层,每个节点的最终隐藏表示形式将接收来自其他邻居的消息。

在这里插入图片描述
(a)具有用于图分类的池化模块的图卷积网络[12]。
GCN层[14]之后是池化层,用于将图粗化为子图,以使粗化图上的节点表示表示更高的图级表示(?)。要计算每个图形标签的概率,输出层是具有SoftMax函数的线性层。

在这里插入图片描述(b)具有GCN的图形自动编码器[59]。编码器使用GCN层来获取每个节点的潜在表示。解码器计算编码器产生的节点潜在表示之间的成对距离。在应用非线性激活函数之后,解码器重建图邻接矩阵
在这里插入图片描述(c)具有GCN的图时空网络[71]。
GCN层后面是1D-CNN层。
GCN层在 A t \boldsymbol{A}_{t} At X t \boldsymbol{X}_{t} Xt上进行操作以捕获空间相关性,而1D-CNN层则沿时间轴在X上滑动以捕获时间相关性。输出层是线性变换,为每个节点生成预测
图5:Different Graph Neural Network Models built with GCNs.

1.2.图注意力网络

图注意力网络类似于GCN,并寻求一种聚合函数来融合图中的相邻节点,随机游走和候选模型,以学习新的表示形式。关键区别在于图注意力网络采用注意力机制,该机制将更大的权重分配给更重要的节点,步行或模型。注意权重与神经网络一起学习端到端框架中的参数。图6说明了在聚集邻居节点信息时图卷积网络和图注意力网络之间的差异。

在这里插入图片描述
(a)图卷积网络[14]显式地将非参数权重 a i j = 1 deg ⁡ ( v i ) d e g ( v j ) a_{i j}=\frac{1}{\sqrt{\operatorname{deg}\left(v_{i}\right) d e g\left(v_{j}\right)}} aij=deg(vi)deg(vj) 1在聚合过程中分配给 v i v_i vi的邻居 v j v_j vj
在这里插入图片描述
(b)图注意力网络[15]通过端到端神经网络架构隐式捕获权重 a i j a_{ij} aij,以便更重要的节点获得更大的权重。
图6:Differences between graph convolutional networks and graph attention networks.

1.3.图自动编码器

图自动编码器是无监督的学习框架,旨在通过编码器学习低维节点矢量,然后通过解码器重建图数据。对于没有属性信息[41],[42]的纯图形以及属性图[61],[62],图自动编码器是一种学习图嵌入的流行方法。对于纯图,许多算法通过构造具有丰富信息的新矩阵(即逐点互信息矩阵)[41]或将邻接矩阵馈入自动编码器模型并捕获一阶和二阶来直接提出邻接矩阵信息[42]。对于属性图,图自动编码器模型倾向于采用GCN [14]作为编码器的构件,并通过链接预测解码器[59],[61]重建结构信息。

1.4.图生成网络

图生成网络旨

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值