【论文阅读】GRAPH ATTENTION NETWORKS

本文介绍了一种新的基于图结构数据的神经网络结构——图注意力网络(GATs)。GATs通过使用masked self-attention layers解决了图卷积网络(GCN)的一些缺点,能为邻域中的不同节点指定不同权重,适用于归纳和传导学习问题。GAT模型已在多个基准数据集上取得或匹配最先进的结果。

摘要

本文提出了一种新的基于图结构数据的神经网络结构——图注意力网络(GATs),不同于先前一些基于谱域的图神经网络,通过使用masked self-attentional layers 解决了图卷积网络(GCN)方面的一些缺点。通过堆叠层可以获得邻域节点的特征值,这样我们可以(隐式地)为邻域中的不同节点指定不同的权重,而不需要任何形式的复杂的矩阵运算(如转置),也不需要了解图本身的结构。本文同时解决了GCN的几个关键挑战,并使模型同时适用于Inductive和Transductive问题。我们的GAT模型已经在四个已建立的Inductive和Transductive基准上取得或匹配了最先进的结果:Cora、Citeseer和Pubmed引文网络数据集,以及蛋白质相互作用数据集(其中测试图在训练期间是看不见的)。

如何理解 inductive learning 与 transductive learning?

1 引言

由于注意力机制在RNN与CNN中都取得了不错的效果,基于此作者在此篇文章提出了图注意力机制。此方法的优点在于可以处理任意大小输入的问题,并且关注最具有影响能力的输入

在摘要中作者说明了,本文的attention计算的目的是为每个节点邻域中的节点分配不同的权重,也就是attention是用来关注那些作用比较大的节点,而忽视一些作用较小的节点。

本文提出的GAT模型具有以下三个特点:

  1. attention机制计算效率高,为每一个节点和其每个邻域节点计算attention可以并行进行。
  2. 通过指定任意的权重给邻域节点,这个模型可以处理拥有不同度的节点,也就是说,无论一个节点连接多少个邻域节点,这个模型都能按照规则指定权重。
  3. 该模型直接适用于inductive learning problem,包括将模型推广到完全不可见图的任务。

2 GAT结构

在这个模块,作者提出了一种图注意力层,通过堆叠这个层来实现图注意力机制。通过与之前神经图处理领域的方法进行比较,阐述其优势及局限性。

2.1 图注意力层(GRAPH ATTENTIONAL LAYER)

首先要描述一个单层的图注意力层,作为一个单独的网络层被用于GAT框架中。

2.1.1 输入输出

上述网络层的输入是一组节点特征的集合:
在这里插入图片描述
其中, N N N是节点数, F F F是每个节点中的特征数。

网络层的输出是一组新的节点特征的集合:
在这里插入图片描述
其中,节点数 N N N不变,节点的特征数可变化为 F ′ F' F

2.1.2 特征提取与注意力机制

为了将输入特征转换为高维特征(增维)以获得足够的表达能力,至少需要一个可学习的线性变换。因此,为每个节点训练一个权值矩阵 W ∈ R F × F ′ W∈R^{F×F'} WRF×F,这个权值矩阵就是输入特征与输出特征的直接关系。

然后,对每个节点进行共享的注意力机制 a a a R F ′ × R F ′ → R R^{F'}×R^{F'}→R RF

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值