Graph Isomorphism Network

本文探讨了图神经网络(GNN)在图同构问题上的表达能力,提出了GIN网络结构,其理论分析显示GIN的表达能力优于GraphSAGE、GCN等结构。GIN在网络分类任务上达到最新状态(SOTA),特别是在社交网络数据集上表现出色。

Paper : GRAPH ISOMORPHISM NETWORK
Code :

摘要

作者使用Weisfeiler-Lehman(WL) test 和同构图判定问题来评估GNN网络的表达能力,并提出了GIN网络结构,理论分析GIN的表达能力优于GraphSAGE GCN等结构,在多任务上准确率达到了SOTA。WL测试与GNN具有相似的信息传递方式,在WL test算法运行的过程中,算法构造了从 multiset 到 representation 的单射函数,因此WL test在图同构问题上具有强表达能力。作者尝试使用GNN构造与WL test 在图同构问题上相同强度的表达能力的网络结构。

本文的贡献主要有以下四点

  1. 证明GNN在图同构问题上至多与WL test 表达能力相同
  2. 提出了GNN与WL test 表达能力相同时,需要满足的聚合表达式和图读出函数的条件
  3. 给出了GCN GraphSAGE 等网络区分不了的网络结构特例
  4. 提出了GIN网络结构

准备

通用GNN网络的数学表示可以使用如下形式

a v ( k ) = Aggregate ( k ) ( { h u ( k − 1 ) ∣ u ∈ N ( v ) } ) h v ( k ) = Combine ( k ) ( h v ( k − 1 ) , a v ( k ) ) \\a_{v}^{(k)} = \text{Aggregate}^{(k)}(\{h_{u}^{(k-1)}|u\in N(v)\}) \\h_{v}^{(k)} = \text{Combine}^{(k)}(h_v^{(k-1)},a_v^{(k)}) av(k)=Aggregate(k)({ hu(k1)uN(v)})hv(k)=Combine(k)(hv(k1),av(k))

其中 h v ( k ) h_{v}^{(k)} hv(k) 是第k个迭代层中节点v的特征向量。我们初始化 h v ( 0 ) = X v h_v^{(0)} = X_v hv(0)=Xv

对于GraphSAGE网络,上式表示为

a v ( k ) = max ⁡ ( { ReLU ( W ( k ) h u ( k − 1 ) ) ∣ u ∈ N ( v ) } ) h v ( k ) = W ′ ( k ) ( h v ( k − 1 ) ∣ ∣ a v ( k ) ) \\a_{v}^{(k)} = \max(\{\text{ReLU}(W^{(k)}h_{u}^{(k-1)})|u\in N(v)\}) \\h_{v}^{(k)} = W'^{(k)}(h_{v}^{(k-1)}||a_v^{(k)}) av(k)=max({ ReLU(W(k)hu(k

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值