图神经网络的分类、建模与复杂度分析
1. 图注意力网络(GAT)
GAT 假设相邻节点对中心节点的贡献既不像 GraphSAGE 那样相同,也不像 GCN 那样预先确定。它采用注意力机制来学习两个相连节点之间的相对权重。图卷积操作定义如下:
[
h_{v}^{k}=\sigma\left(\sum_{u\in N_{v}}\alpha_{vu}^{k}W^{k}h_{u}^{k - 1}\right)
]
其中,(h_{v}^{0}=x_{v})。注意力权重 (\alpha_{vu}^{k}) 衡量节点 (v) 与其邻居 (u) 之间的连接强度:
[
\alpha_{vu}^{k}=\text{softmax}\left(g\left(\mathbf{a}^{T}\left[W^{k}h_{v}^{k - 1}|W^{k}h_{u}^{k - 1}\right]\right)\right)
]
这里,(g(\cdot)) 是 LeakyReLU 激活函数,(\mathbf{a}) 是可学习参数向量。softmax 函数确保节点 (v) 的所有邻居的注意力权重之和为 1。
2. 图池化模块
在 GNN 生成节点特征后,可将其用于最终任务。但直接使用所有特征在计算上可能具有挑战性,因此需要下采样策略。根据目标和在网络中所起的作用,这种策略有不同名称:
- 池化操作:通过对节点进行下采样以生成更小的表示,从而减少参数大小,避免过拟合、排列不变性和计算复杂性问题。
- 读出操作:主要用于基于节点表示生成图级别的表示。
目前,均值/最大值/求和池化是实现下采样最原始且
超级会员免费看
订阅专栏 解锁全文
18万+

被折叠的 条评论
为什么被折叠?



