基于相似度的记忆增强联合实体与关系提取
1. 引言
近年来,基于文本的信息提取任务(如命名实体识别)愈发流行,这与基于Transformer的大语言模型(LLMs)的重要性日益增长密切相关。这些模型已成为复杂文档信息提取流程的一部分。然而,尽管能提取出重要信息,但这些流程仍缺乏检测信息之间关联的能力。关系分类任务这一缺失环节,近年来被视为一项重大挑战。若采用能在单个神经网络通道中同时解决命名实体识别和关系分类任务的多任务方法,问题将更难解决。
本文旨在解决由DocRED数据集引入的文档级联合实体与关系提取的多任务问题。我们延续现有研究路线,训练单个模型来解决四个子任务:提及检测、共指消解、实体分类和关系提取。该模型首先检测作为实体提及的文本跨度,并将它们分组到共指簇中。然后,为这些实体簇标记正确的实体类型,并通过关系将它们相互关联。图1展示了DocRED数据集中的一个文档示例以及模型预期输出的标记实体簇图。我们引入任务间的双向类记忆依赖关系,以解决基于管道方法的缺点,并更准确地执行联合任务。
我们的贡献如下:
1. 引入一种新方法,通过改进先前提出的基于管道方法的架构,引入记忆模块以提供任务间的双向依赖关系,从而解决多任务学习问题。
2. 提供评估结果,表明我们的方法优于基于管道的方法,并在BioCreative V CDR语料库上取得了最先进的成果。
3. 提出一种新颖的相似度分类器模块,解决文档级联合实体与关系分类的距离学习问题,为未来工作奠定基础。我们的解决方案代码可在https://github.com/kosciukiewicz/similarity_based_memory_re获取。
超级会员免费看
订阅专栏 解锁全文
42

被折叠的 条评论
为什么被折叠?



