本文是LLM系列的文章,针对《Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering》的翻译。
摘要
最近关于知识库问答(KBQA)的工作检索子图以便于推理。所需的子图至关重要,因为小个子图可能会排除答案,但大个子图可能引入更多噪声。然而,现有的检索要么是启发式的,要么与推理交织在一起,导致在部分子图上进行推理,这增加了在缺少中间监督时的推理偏差。本文提出了一种与后续推理过程解耦的可训练子图检索器(SR),它使即插即用框架能够增强任何面向子图的KBQA模型。大量实验表明,SR的检索和QA性能明显优于现有的检索方法。通过弱监督预训练和端到端微调,SR与NSM相结合,实现了新的最先进的性能,NSM是一种面向子图的推理器,用于基于嵌入的KBQA方法。代码和数据集可在线获取。
1 引言
2 相关工作
3 问题定义
4 子图检索器(SR)
5 训练策略
6 实验
7 结论
我们提出了一个子图检索器(SR)与KBQA的后续推理器解耦。SR被设计为一种高效的双编码器,可以在扩展路径时更新问题,并确定扩展的停止。在两个研究良好的基准上的实验结果表明,如果在面向子图的推理器之前注入SR

本文介绍了一种可训练的子图检索器(SR),用于多跳知识库问答(KBQA)。SR旨在解决现有检索方法的启发式和推理混合问题,以减少推理偏差。实验证明,SR在检索和QA性能上显著优于其他方法,与NSM(一种面向子图的推理器)结合使用,能实现基于嵌入的KBQA的新最优性能。
订阅专栏 解锁全文
1126

被折叠的 条评论
为什么被折叠?



