本文是LLM系列文章,针对《UNIKGQA: UNIFIED RETRIEVAL AND REASONING FOR SOLVING MULTI-HOP QUESTION ANSWERING OVER KNOWLEDGE GRAPH》的翻译。
摘要
知识图谱上的多跳问答(KGQA)旨在寻找在大规模知识图上与自然语言问题中提到的主题实体相距多跳的答案实体。为了应对庞大的搜索空间,现有的工作通常采用两阶段的方法:首先检索与问题相关的相对较小的子图,然后对子图进行推理,以准确地找到答案实体。尽管这两个阶段高度相关,但以前的工作使用了非常不同的技术解决方案来开发检索和推理模型,忽略了它们在任务本质上的相关性。在本文中,我们提出了UniKGQA,这是一种用于多跳KGQA任务的新方法,通过在模型架构和参数学习中统一检索和推理。对于模型架构,UniKGQA包括一个基于预训练语言模型(PLM)的语义匹配模块,用于问题关系语义匹配,以及一个匹配信息传播模块,用于沿着KGs上的有向边传播匹配信息。对于参数学习,我们为检索和推理模型设计了一个基于问题关系匹配的共享预训练任务,然后提出了面向检索和推理的微调策略。与以往的研究相比,我们的方法更加统一,将检索和推理阶段紧密联系在一起。在三个基准数据集上的大量实验已经证明了我们的方法在多跳KGQA任务上的有效性。我们的代码和数据可在https://github.com/RUCAIBox/UniKGQA.
1 引言
2 前言
3 方法
4 实验
5 相关工作
6 结论
在这项工作

本文提出UniKGQA,一种统一检索和推理的新方法,用于多跳知识图谱问答。通过结合预训练语言模型的语义匹配和信息传播,以及专门的检索和推理学习策略,提高了在大规模知识图上的问答效果。实验证明其在多个基准数据集上的有效性。
订阅专栏 解锁全文
1683

被折叠的 条评论
为什么被折叠?



