图神经网络的理论动机与传统图生成方法
1. 强大的消息传递图神经网络(MP - GNNs)
消息传递图神经网络(MP - GNNs)的能力上限与Weisfeiler - Lehman(WL)算法相关。有定理表明,MP - GNNs的能力至多与WL算法相当,且存在与WL算法能力相当的MP - GNNs。
具体来说,以下消息传递更新规则的基本GNN足以达到WL算法的能力:
[h_{u}^{(k)} = \sigma\left(W_{self}^{(k)}h_{u}^{(k - 1)} + W_{neigh}^{(k)}\sum_{v\in N(u)}h_{v}^{(k - 1)} + b^{(k)}\right)]
不过,多数其他GNN模型不如WL算法强大。从形式上看,要和WL算法一样强大,聚合和更新函数需要是单射的。例如,使用邻居嵌入(加权)平均值的聚合函数就不是单射的。
还有一种被称为图同构网络(GIN)的“最小”GNN模型,其更新规则如下:
[h_{u}^{(k)} = MLP^{(k)}\left((1 + \epsilon^{(k)})h_{u}^{(k - 1)} + \sum_{v\in N(u)}h_{v}^{(k - 1)}\right)]
其中(\epsilon^{(k)})是可训练参数。
2. 超越WL算法
- 关系池化(Relational Pooling)
WL算法存在局限性,例如无法区分连通的六元环和两个三角形的集合。这源于聚合和更新操作无法检测两个节点是否共享邻居。
为解决此问题,
超级会员免费看
订阅专栏 解锁全文
9万+

被折叠的 条评论
为什么被折叠?



