GraphFormers: GNN-nested Transformers for Representation Learning on Textual Graph

GraphFormers: GNN-nested Transformers for Representation Learning on Textual Graph

Neurips21

推荐指数:#paper/⭐⭐#​(太早,但是又经典)

动机:以前的text-based graph 往往采取级联的结构,这种处理中,GNN语义并没有很好的和transformer结合在一起。因此,我们提出了并联式的text-based graph transformer.

image

贡献:

  1. GraphFormers中分层GNN组件嵌套与语言模型的transformer块一起。利用该架构,将文本编码和图聚合融合成一个迭代的工作流,GNN从局部理解信息,transformer则可以更好的捕获长信息
  2. 引入了一种渐进学习策略,对操作数据和原始数据进行连续训练,以增强其在图上整合信息的能力。
    使用预先训练的语言模型可以更精确地捕获文本的底层语义;使用图形神经网络可以有效地聚合邻居节点,以获得更多信息的节点

模型架构

在GraphFormers中,GNN组件被嵌套在语言模型的转换器层(TRM)旁边,其中文本编码和图聚合被融合为一个迭代的工作流。在每次迭代中,所链接的节点将在分层的GNN组件中相互交换信息;因此,每个节点都将增加其邻域信息。

其分为两个训练步骤:

  1. 利用污染(即数据增强或者dp)后的节点进行训练
  2. 训练并未污染的数据

image

在这项工作中,我们处理文本图数据,其中每个节点 x x x 都是一个文本。节点 x x x 及其邻居 N x N_x Nx 一起表示为 G x G_x Gx。我们的模型根据自己的文本特征和邻域 N x N_x Nx 的信息来学习节点 x x x 的嵌入。生成的嵌入有望捕捉到节点之间的关系,即根据嵌入相似性准确预测两个节点 x q x_q xq x k x_k xk 是否相连。

GraphFormer 的编码过程如下所示:

  1. 输入节点(中心节点及其邻居)被标记化为标记序列,前面填充了特殊标记 [CLS],其状态用于节点表示。
  2. 输入序列根据单词嵌入和位置嵌入的总和映射到初始嵌入序列 { H g 0 } G \{H_g^0\}_G { Hg0}G。嵌入序列由多层 GNN 嵌套的 Transformer 编码(如图 2 所示),其中图形聚合和文本编码迭代执行。

Graph Aggregation in GNN

每个节点都由基于分层图聚合。对于第 l 层中的每个节点,第一个标记级嵌入(对应于 [CLS])被视为节点级嵌入: z g l ← H g l [ 0 ] {\mathbf{z}}_{g}^{l}\leftarrow\mathbf{H}_{g}^{l}[0] zglHgl[0]。节点级嵌入是从所有节点收集的,并传递给分层 GNN 进行图形聚合。我们利用多头注意力 (MHA) 对节点级嵌入 z g \mathbf{z}_{g} zg 进行编码,类似于 GAT。

Z ^ G l = M H A ( Z G l ) ; M H A ( Z G l ) = C o n c a t ( h e a d 1 , . . . , h e a d h ) ; h e a d j = s o f t m a x ( Q K T d + B ) V ; Q = Z G l W j Q ; K = Z G l W j K ; V = Z G l W j V ; \begin{gathered}\mathbf{\hat{Z}}_G^l=\mathrm{MHA}(\mathbf{Z}_G^l);\\\mathrm{MHA}(\mathbf{Z}_G^l)=\mathrm{Concat}(\mathbf{head}_1,...,\mathbf{head}_h);\\\mathbf{head}_{j}=\mathrm{softmax}(\frac{\mathbf{QK^{T}}}{\sqrt{d}}+\mathbf{B})\mathbf{V};\\\mathbf{Q}=\mathbf{Z}_{G}^{l}\mathbf{W}_{j}^{Q};\mathbf{K}=\mathbf{Z}_{G}^{l}\mathbf{W}_{j}^{K};\mathbf{V}=\mathbf{Z}_{G}^{l}\mathbf{W}_{j}^{V};\end{gathered} Z^Gl

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值