Span-Level Model for Relation Extraction

本文介绍了一种直接针对所有可能span的模型,用于同时进行实体提及检测和关系提取,利用注意力机制生成span表示,有效解决了顺序解码器的级联错误问题。
部署运行你感兴趣的模型镜像

在这里插入图片描述

Abstract

顺序解码器无法对重叠的实体提及建模,并且存在级联错误。为了解决这个问题,本文提出了一个直接对所有可能的span建模,并执行联合实体提及检测和关系提取模型。

1.Instruction

本文提出了一个简单的基于bi-lstm的模型,为每个可能的span生成span表示。然后将相同的span表示用于对所有检测到的实体提及对执行关系抽取。

2. Model

2.1 Span Representation Generation

给定具有T个token的文档D,可能存在的span为:N=T(T+1)/2N=T(T+1)/2N=T(T+1)/2,span i由START<i>,END <i>表示span的开始和结尾,目标是为了获取每个span的span表示gig_igi

2.1.1 Raw Token Embeddings

对上下文嵌入使用固定的ELMo,对词嵌入、字符嵌入、从头开始训练,使用固定的Senna。考虑到相对较小的数据集,为了防止过拟合,作者只训练了字符嵌入。
对原始token xtx_txt使用BiLSTM获得xt∗x_t^*xt
在这里插入图片描述

2.1.2 Span Representation

使用注意力来创建特定任务的span表示,每个span的特征向量为:
在这里插入图片描述
对于每个span i,其span 表示gig_igi表示为:
在这里插入图片描述

2.2 Entity Mention Detection

主要的功能是预测每个span的实体类型。通过计算实体类型得分的向量来预测实体类型。
在这里插入图片描述

2.3 Relation Extraction

本文仅考虑有序的二元关系(每一对有序的选择span),使两个span来同一个句子。对于每一对span,首先计算一个嵌入ri,jr_{i,j}ri,j的有序对:
在这里插入图片描述
使用嵌入ri,jr_{i,j}ri,j的有序对来计算关系类型得分的向量。

MLPreMLP_{re}MLPre的输出大小以及pi,jrep_{i,j}^{re}pi,jre的大小等于RE类的数量。

2.4 Loss

在这里插入图片描述

3. Experiments

在这里插入图片描述

4. 启示

  1. span提取的方法非常经典,有必要复现一下这篇论文的代码。
  2. 老生常谈的问题:计算每一对span的关系,所需要的时间复杂度比较大

您可能感兴趣的与本文相关的镜像

Kotaemon

Kotaemon

AI应用

Kotaemon 是由Cinnamon 开发的开源项目,是一个RAG UI页面,主要面向DocQA的终端用户和构建自己RAG pipeline

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

「已注销」

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值