#论文题目:GAT:Graph Attention Networks(图注意力网络)
#论文地址:https://arxiv.org/pdf/1710.10903.pdf
#论文发表网站:https://arxiv.org/abs/1710.10903
#论文源码开源地址:https://github.com/Diego999/pyGAT
#论文所属会议: ICLR 2018 (深度学习新兴顶级会议)
一、简介
图注意网络(GAT),一种基于图结构数据的新型神经网络架构,利用隐藏的自注意层来解决之前基于图卷积或其近似的方法的不足。通过堆叠节点能够处理其邻域特征的层,可以(隐式地)为邻域中的不同节点指定不同的权重,而不需要任何代价高昂的矩阵操作或依赖于预先知道图结构。
引入attention(自注意力机制)的目的:
- 为每个节点分配不同的权重;
- 在一个异质信息网络中,A节点的邻居节点对A节点的自注意力的数值越高,证明邻居节点对A节点所起的作用越大,影响越深;
- 自注意力机制可以考虑节点的整体特征,而不是仅仅依赖其节点本身的特征,使得求出的向量等数值更加精确。
二、GAT ARCHITECTURE(GAT 结构)
通过一个图注意力层,并不需要复杂的图卷积操作,使得节点及其邻居的结构信息可以整合到节点中,此自注意力的设定是基于Bahdanau 20151 。但是这个论文提出的框架对于注意力机制的选择是不可知的。
2.1 Graph Attentional Layer
该部分包括两个步骤:进行特征值的放缩变换,进行注意力相关系数的学习。<

GAT(Graph Attention Networks)是针对图结构数据的神经网络架构,通过自注意力层解决了传统图卷积方法的局限。它允许节点根据其邻域的不同特征分配权重,无需昂贵的矩阵操作或预知图结构。论文提出了加权求和的注意力机制,通过多头注意力机制进行节点表示的集成。GAT与GCN类似,但引入了权值矩阵Anew以区分不同邻接节点的影响。此外,AGNN通过余弦相似度计算注意力权重。GAT和GCN的主要区别在于节点更新方式,GAT引入了自注意力机制增强节点表示的准确性。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



