【图注意力网络】GAT:Graph Attention Networks

GAT(Graph Attention Networks)是针对图结构数据的神经网络架构,通过自注意力层解决了传统图卷积方法的局限。它允许节点根据其邻域的不同特征分配权重,无需昂贵的矩阵操作或预知图结构。论文提出了加权求和的注意力机制,通过多头注意力机制进行节点表示的集成。GAT与GCN类似,但引入了权值矩阵Anew以区分不同邻接节点的影响。此外,AGNN通过余弦相似度计算注意力权重。GAT和GCN的主要区别在于节点更新方式,GAT引入了自注意力机制增强节点表示的准确性。

#论文题目:GAT:Graph Attention Networks(图注意力网络)
#论文地址:https://arxiv.org/pdf/1710.10903.pdf
#论文发表网站:https://arxiv.org/abs/1710.10903
#论文源码开源地址:https://github.com/Diego999/pyGAT
#论文所属会议: ICLR 2018 (深度学习新兴顶级会议)

一、简介

图注意网络(GAT),一种基于图结构数据的新型神经网络架构,利用隐藏的自注意层来解决之前基于图卷积或其近似的方法的不足。通过堆叠节点能够处理其邻域特征的层,可以(隐式地)为邻域中的不同节点指定不同的权重,而不需要任何代价高昂的矩阵操作或依赖于预先知道图结构。
引入attention(自注意力机制)的目的:

  • 为每个节点分配不同的权重;
  • 在一个异质信息网络中,A节点的邻居节点对A节点的自注意力的数值越高,证明邻居节点对A节点所起的作用越大,影响越深;
  • 自注意力机制可以考虑节点的整体特征,而不是仅仅依赖其节点本身的特征,使得求出的向量等数值更加精确。

二、GAT ARCHITECTURE(GAT 结构)

通过一个图注意力层,并不需要复杂的图卷积操作,使得节点及其邻居的结构信息可以整合到节点中,此自注意力的设定是基于Bahdanau 20151 。但是这个论文提出的框架对于注意力机制的选择是不可知的。

2.1 Graph Attentional Layer

该部分包括两个步骤:进行特征值的放缩变换进行注意力相关系数的学习。<

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值