本文是LLM系列文章,针对《On Exploring the Reasoning Capability of Large Language Models with Knowledge Graphs》的翻译。
用知识图谱探究大型语言模型的推理能力
摘要
本文考察了LLM使用其内部知识图谱(即他们在预训练期间学习的知识图谱)与知识图谱进行推理的能力。提出了两个研究问题,以研究LLM从预训练知识图谱中回忆信息的准确性以及它们从上下文中推断知识图谱关系的能力。为了解决这些问题,我们使用LLM来执行四个不同的知识图谱推理任务。此外,我们确定了在LLM的知识推理过程中可能发生的两种类型的幻觉:内容幻觉和本体幻觉。我们的实验结果表明,LLM可以从自己的记忆中成功地处理简单和复杂的知识图谱推理任务,也可以从输入上下文中进行推理。

本文探讨了大型语言模型(LLM)如何利用内部知识图谱进行推理,通过四个不同的知识图谱推理任务,研究LLM回忆信息的准确性和从上下文中推断关系的能力。实验结果显示,LLM能成功处理知识图谱推理任务,揭示了其在内容和本体上的潜在幻觉问题,对未来研究具有启示意义。
订阅专栏 解锁全文
299

被折叠的 条评论
为什么被折叠?



