32、基于相似度的记忆增强联合实体与关系提取

基于相似度的记忆增强联合实体与关系提取

1. 引言

近年来,基于文本的信息提取任务(如命名实体识别)愈发流行,这与基于Transformer的大语言模型(LLMs)的重要性日益增长密切相关。这些模型已成为复杂文档信息提取流程的一部分。然而,尽管能提取出重要信息,但这些流程仍缺乏检测信息之间关联的能力。关系分类任务这一缺失环节,近年来被视为一项重大挑战。若采用能在单个神经网络通道中同时解决命名实体识别和关系分类任务的多任务方法,问题将更难解决。

本文旨在解决由DocRED数据集引入的文档级联合实体与关系提取的多任务问题。我们延续现有研究路线,训练单个模型来解决四个子任务:提及检测、共指消解、实体分类和关系提取。该模型首先检测作为实体提及的文本跨度,并将它们分组到共指簇中。然后,为这些实体簇标记正确的实体类型,并通过关系将它们相互关联。图1展示了DocRED数据集中的一个文档示例以及模型预期输出的标记实体簇图。我们引入任务间的双向类记忆依赖关系,以解决基于管道方法的缺点,并更准确地执行联合任务。

我们的贡献如下:
1. 引入一种新方法,通过改进先前提出的基于管道方法的架构,引入记忆模块以提供任务间的双向依赖关系,从而解决多任务学习问题。
2. 提供评估结果,表明我们的方法优于基于管道的方法,并在BioCreative V CDR语料库上取得了最先进的成果。
3. 提出一种新颖的相似度分类器模块,解决文档级联合实体与关系分类的距离学习问题,为未来工作奠定基础。我们的解决方案代码可在https://github.com/kosciukiewicz/similarity_based_memory_re获取。

2. 相关工作
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值