ACL 2020 Contextualised Graph Attention for Improved Relation Extraction 论文阅读

论文来源

ACL2020

链接

https://arxiv.org/abs/2004.10624

论文介绍

摘要: 本文提出了一种结合边缘特征和多个子图来改进关系提取的上下文化图注意网络。 提出了一种利用多个子图来学习基于图的网络中丰富的节点表示的新方法。 为此,从单个依赖树中获得多个子图。 提出了两种边缘特征,将其与GAT模型和GCN模型有效地结合起来应用于关系抽取。在SEMEVAL 2010 task 8 的数据集上取得了最高的86.3的F1值

句子的图形结构可以用依存树获取。
依存树中,单词表示节点,单词间的关系表示边, 此外,可以使用依赖解析树导出不同大小的图。亦可进行拓展,
小图:可能消除有用的信息 大图:增加噪音
为了降低从大图学习的复杂性,我们建议使用多个子图,而不是单个图。
具体来说就是从单个依赖树中提取多个子图来用作关系抽取。 使用这种分离性的结构将有助于将重点放在特定区域,有助于学习更丰富的表示形式,特别是针对目标实体对应的顶点。

模型结构:
在这里插入图片描述

在此研究中,我们将关系抽取任务定义为图形分类任务。
为此,每一句句子将被表示为一组子图,GK K表示该句子一共有多少子图。而许多操作是在单个子图上进行的。使用的contextualised graph attention 用于关系提取。

从图中可看到,这个模型将每一句句子以及其中所提到的实体作为模型的输入。

第一步 使用SDP和目标实体e1和e2的位置获得三个子图。(分别为1,最短依存路径 2. 与第一个实体相连接的单词 3。与第二个实体相连接的单词。)
虽然依赖解析定义了关联词之间的方向,但是忽略了获取句子的无向子图。我们分别创建一个邻接矩阵来保证顶点的有序性

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值