本文是LLM系列文章,针对《Knowledge Editing with Dynamic Knowledge Graphs for Multi-Hop Question Answering》的翻译。
摘要
由于涉及广泛的知识需求,多跳问答(MHQA)对大型语言模型(LLM)提出了重大挑战。知识编辑旨在精确修改LLM,以纳入特定知识,而不会对其他无关知识产生负面影响,为解决LLM的MHQA挑战提供了一种潜在的解决方案。然而,目前的解决方案很难有效地解决知识冲突问题。大多数参数保持编辑方法都受到不准确检索的阻碍,并忽略了二次编辑问题,这可能会在LLM的推理过程中引入噪声。本文介绍了KEDKG,这是一种利用动态知识图谱进行MHQA的新型知识编辑方法,旨在确保答案的可靠性。KEDKG包括两个主要步骤:动态知识图谱构建和知识图谱增强生成。最初,KEDKG自主构建动态知识图谱来存储修订后的信息,同时解决潜在的知识冲突。随后,它采用细粒度检索策略,结合实体和关系检测器,以提高LLM生成图检索的准确性。基准测试的实验结果表明,KEDKG超越了以前最先进的模型,在具有动态信息的环境中提供了更准确可靠的答案。