目录
1 原理介绍
GAT(Graph Attention Networks)图注意力网络的原理相对好理解,相比较GCN而言就是对汇聚到中心节点的邻居节点学习了一个权重,使其能够按照权重进行邻域特征的加和。下面列出的参考文献都给出了详细的原理介绍,这里只阐述重点。
1.1 计算注意力系数
α i , j = exp ( α ( a T [ W x i ∥ W x j ] ) ) ∑ k ∈ N ( i ) ∪ i exp ( α ( a T [ W x i ∥ W x j ] ) ) \alpha_{i, j}=\frac{\exp \left(\alpha\left(a^{T}\left[W x_{i} \| W x_{j}\right]\right)\right)}{\sum_{k \in N(i) \cup i} \exp \left(\alpha\left(a^{T}\left[W x_{i} \| Wx_{j}\right]\right)\right)} αi,j=∑k∈N(i)∪iexp(α(aT[Wxi∥Wxj]))exp(α(aT[Wxi∥Wxj]))
其中的 α \alpha α 代表注意力分数, W W W代表可学习参数, x j x_j xj代表邻居节点的特征向量。
解读一下这个公式:首先,一个共享参数 W W W 的线性映射对于顶点的特征进行了增

本文介绍了图注意力网络(GAT)的基本原理,包括注意力系数计算、加权求和及多头注意力机制,并提供了详细的PyTorch实现代码。此外,还探讨了GAT为何适合归纳学习任务及其与GCN的关系。
最低0.47元/天 解锁文章
1万+





