图学习:图神经网络模型、应用及相关分析
1. 图同构网络(GIN)
图同构网络(GIN)受Weisfeiler - Lehman(WL)测试的启发,旨在最大化图神经网络(GNN)的能力。它提出了一种简单的架构,通过以下公式更新节点表示:
[Z = (1 + \epsilon) \cdot h(v) + \sum_{u_j \in N(v_i)} h(u_j) = [(1 + \epsilon) I + A] X]
此公式等价于特定形式的方程,其中(\phi = 1 + \epsilon)且(\psi = 1)。需要注意的是,GIN不对图邻接矩阵进行归一化处理。
2. 多项式聚合函数
为了收集更丰富的局部结构,一些研究引入了高阶邻居。因为仅考虑一阶邻居有时不足以表示节点,但高阶邻居可能会导致过度平滑问题。因此,对不同阶邻居的聚合方案进行调整至关重要。这类方法可以表示为:
[Z = \left(\phi I + \sum_{j = 1}^{k} \psi_j A^j\right) X = P(A) X]
其中(P(\cdot))是多项式函数。以下是几种具体的模型:
- ChebNet :应用截断的切比雪夫多项式来估计滤波函数,公式为:
[ \sum_{k = 0}^{K - 1} \theta_k T_k(\tilde{L}) X = [\tilde{\theta}_0 I + \tilde{\theta}_1(I - \tilde{A}) + \tilde{\theta}_2(I - \tilde{A})^2 + \cdots] X = P(\tilde{A}) X ]