【图神经网络】图注意力机制GAT以及Pytorch实现

本文介绍了图注意力网络(GAT)的基本原理,包括注意力系数计算、加权求和及多头注意力机制,并提供了详细的PyTorch实现代码。此外,还探讨了GAT为何适合归纳学习任务及其与GCN的关系。

1 原理介绍

  GAT(Graph Attention Networks)图注意力网络的原理相对好理解,相比较GCN而言就是对汇聚到中心节点的邻居节点学习了一个权重,使其能够按照权重进行邻域特征的加和。下面列出的参考文献都给出了详细的原理介绍,这里只阐述重点。

1.1 计算注意力系数

α i , j = exp ⁡ ( α ( a T [ W x i ∥ W x j ] ) ) ∑ k ∈ N ( i ) ∪ i exp ⁡ ( α ( a T [ W x i ∥ W x j ] ) ) \alpha_{i, j}=\frac{\exp \left(\alpha\left(a^{T}\left[W x_{i} \| W x_{j}\right]\right)\right)}{\sum_{k \in N(i) \cup i} \exp \left(\alpha\left(a^{T}\left[W x_{i} \| Wx_{j}\right]\right)\right)} αi,j=kN(i)iexp(α(aT[WxiWxj]))exp(α(aT[WxiWxj]))
  其中的 α \alpha α 代表注意力分数, W W W代表可学习参数, x j x_j xj代表邻居节点的特征向量。
  解读一下这个公式:首先,一个共享参数 W W W 的线性映射对于顶点的特征进行了增

评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值