本文是LLM系列文章,针对《Enhancing Large Language Models with Pseudo- and MultisourceKnowledge Graphs for Open-ended Question Answering》的翻译。
摘要
减轻大型语言模型(LLM)的幻觉并增强它们是一项至关重要的任务。尽管一些现有的方法采用了模型自我增强技术,但它们不能有效地解决未知的事实幻觉。使用知识图谱(KG)增强方法无法同时解决不同KG来源的泛化和开放式回答问题的增强问题。为了解决这些限制,提出了一个结合伪图生成和原子知识验证的框架。在开放式问答环境中使用KG增强LLM是通过利用伪图生成来实现的。原子知识验证利用原子级的知识查询和验证来实现不同KG来源下的可推广性。与基线相比,这种方法在开放式问题的ROUGE-L分数上至少提高了11.5分。对于精确的问题,我们观察到最低准确度提高了7.5。此外,还有证据表明,该框架在不同的KG来源中表现出可推广性。总之,我们的研究结果通过结合伪和多源KGs,特别是在开放式问题的背景下,为增强LLM铺平了道路。
1 引言
2 相关工作
3 方法
4 实验
5 结论和未来工作
提出了一个结合伪图生成和原子知识验证的框架来增强开放式问题的LLM。伪图生成利用LLM幻觉的特性,即使在错误的条件下也为我们提供了一个知识点的框架。原子知识验证包含原子级