Towards Sparse Hierarchical Graph Classifiers

该博客介绍了研究工作,针对图分类问题提出了一种稀疏层次图分类器。文章指出,尽管图卷积网络在节点分类和链接预测上取得了进步,但在图分类上仍有提升空间,特别是对于大型图的处理。文章对比了DiffPool方法的内存需求限制,并提出了一种基于GraphU-Nets的池化层,能够在保持稀疏性的同时实现有效池化,降低了内存需求。实验结果显示,提出的模型在性能上可与DiffPool媲美,同时显著减少了存储需求。

论文:Towards Sparse Hierarchical Graph Classifiers 稀疏层次图分类器的研究

来源: NIPS 2018 Workshop

论文链接:
Arxiv: https://arxiv.org/abs/1811.01287

1 动机

图表示学习的最新进展,主要是利用图卷积网络,对许多基于图的基准任务带来了实质性的改进。虽然新的学习节点embeddign的方法非常适合于节点分类和链接预测,但它们的在图分类(预测整个图的标签)的应用基本上还处于初级阶段,通常使用简单的全局池化步骤聚合特征或使用手动设计,模式固定的层次化粗化图结构的方法。改进这一点的一个重要步骤是在图形神经网络中,以自适应的、与数据相关的方式,对图进行粗化处理,这类似于CNNs中的图像下采样。但是,以前的SOTA的方法在训练时的池化需要O(N^2)的内存需求,因此不能扩展到大型图。文中结合了图神经网络设计的一些最新进展,以证明在不牺牲稀疏性的情况下,具有竞争力的层次图分类结果是可能的

2 相关工作

DiffPool是第一个端到端的分层池化模型,DiffPool计算从原始图的节点到池化图中的节点的之间的软的聚类分配。DiffPool的主要局限性是对软聚类分配的计算,在训练阶段需要存储聚类分配矩阵,这个软分配矩阵是稠密的,需要 O ( k V 2 ) O(kV^2) O(kV2) k k k表示聚类数, V V V表示节点数)的存储空间,因此不能扩展到大图上。

文中根据最新的图神经网络模型来证明不需要牺牲稀疏性就可获得具有池化功能的端到端图卷积架构的良好性能。实验部分展示了与DiffPool有可媲美的性能,同时仅需要 O ( V + E ) O(V+E) O(V+E) E E E为边数)的存储空间。

3 模型

定义:

  • 节点特征: X ∈ R N × F \mathbf{X} \in \mathbb{R}^{N \times F} XRN×F,如果节点没有特征可用,则可以使用节点的度作为人造特征,比如可以用one-hot编码。
  • 邻接矩阵: A ∈ R N × N \mathbf{A} \in \mathbb{R}^{N \times N} ARN×N,文中主要处理的是无向图和无权图,因此邻接矩阵是二进制表示的对称矩阵。

和CNN对图像进行分类类似,文中的模型包括一个卷积层和池化层,此外,还需要一个readout层,它将学习到的表示转换成固定大小的向量表示,用于最终预测(例如简单的MLP)。

卷积层

由于需要在测试时对未知的图结构进行分类,因此,卷积层的设计应该是inductive的,即它不依赖于固定的和已知的图结构。最简单的此类层是mean-pooling传播规则,如GCN何GAT中使用的,文中使用的卷积层如下:

M P ( X , A ) = σ ( D ^ − 1 A ^ X Θ + X Θ ′ ) \mathrm{MP}(\mathrm{X}, \mathrm{A})=\sigma\left(\hat{\mathrm{D}}^{-1} \hat{\mathrm{A}} \mathrm{X} \Theta+\mathrm{X} \Theta^{\prime}\right) MP(X,A)=σ(D^1A^XΘ+XΘ)
后一步是跳跃连接,进一步促进了有关中心节点信息的保存。

池化层

DiffPool中的,池化率为 k ∈ { 0 , 1 } k \in{\{0,1\}} k{ 0,1},即池化前的节点数量为 N N N,则池化后的节点数为 k N kN kN。和DiffPool不同的是,文中采用Graph U-Nets中的池化架构,这种方式从原图中丢掉 N − k N N-kN

最近,对于图神经网络的研究日益深入,引起了广泛关注。图神经网络是一种能够对图数据进行建模和分析的神经网络模型。它可以处理任意结构的图形数据,如社交网络、蛋白质互作网络等。 在过去的几年中,研究者们提出了许多图神经网络的模型和方法。然而,这些方法仍然面临一些挑战,例如有效地处理大型图形数据、学习高质量的图嵌入表示以及推理和预测复杂的图结构属性等。 为了克服这些挑战,研究人员开始通过增加神经网络的深度来探索更深的图神经网络模型。深度模型具有更强大的表达能力和学习能力,可以更好地捕捉图数据中的关系和模式。这些深层图神经网络可以通过堆叠多个图神经网络层来实现。每个图神经网络层都会增加一定的复杂性和抽象级别,从而逐渐提高图数据的表达能力。 除了增加深度外,研究人员还提出了一些其他的改进来进一步提高图神经网络的性能。例如,引入注意力机制可以使模型能够自动地选择重要的节点和边来进行信息传播。此外,研究人员还研究了如何通过引入图卷积操作来增强图数据的局部性,从而提高图神经网络模型的效果。 综上所述,对于更深层的图神经网络的研究将在处理大规模图形数据、学习高质量的图表示以及进行复杂图结构属性的推理方面取得更好的性能。随着深度图神经网络的推广和应用,我们可以预见它将在许多领域,如社交网络分析、推荐系统和生物信息学中发挥重要作用,为我们带来更多的机遇和挑战。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值