本文是LLM系列文章,针对《AutoRE: Document-Level Relation Extraction with Large Language
Models》的翻译。
摘要
大型语言模型(LLM)在理解和生成文本方面表现出了非凡的能力,促使许多研究人员将其用于信息提取(IE)目的,包括关系提取(RE)。尽管如此,大多数现有的方法主要是为句子级关系提取(SentRE)任务设计的,该任务通常在一个句子中包含一组有限的关系和三元组事实。此外,某些方法将关系视为集成到提示模板中的候选选择,导致在处理文档级关系提取(DocRE)任务时处理效率低下,性能次优,这需要处理分布在给定文档中的多个关系和三元组事实,这带来了明显的挑战。为了克服这些限制,我们引入了AutoRE,这是一个端到端的DocRE模型,它采用了一种新的RE提取范式RHF(Relation HeadFacts)。与现有方法不同,AutoRE不依赖于已知关系选项的假设,使其更能反映现实世界的场景。此外,我们还使用参数高效微调(PEFT)算法(QLoRA)开发了一个易于扩展的RE框架。我们在RE-DocRED数据集上的实验展示了AutoRE的最佳性能,取得了最先进的结果,在开发和测试集上分别超过TAG 10.03%和9.03%。代码可用,并提供演示视频。
1 引言
2 相关工作
3 方法
4 实验
5 结论
在本文中,我们介绍了RHF,一种新的RE范式,以及AutoRE,一种先进的DocRE模型。AutoRE代表了DocRE任务的前沿方法,利用LLM与QLoRA相结合。这一创新模型建立了一个新的标准,在ReDocRED数据集上实现

AutoRE是一种端到端的DocRE模型,采用RHF范式,不依赖预定义关系,使用QLoRA进行高效微调。在DocRED数据集上取得SOTA结果,优于TAG 10.03%和9.03%。
订阅专栏 解锁全文
1286

被折叠的 条评论
为什么被折叠?



