本文是LLM系列文章,针对《KNOWLEDGE SOLVER: TEACHING LLMS TO SEARCH FOR DOMAIN KNOWLEDGE FROM KNOWLEDGE GRAPHS》的翻译。
摘要
大型语言模型(LLM),如ChatGPT和GPT-4,由于其涌现能力和可推广性,是通用的,可以解决不同的任务。然而,LLM有时缺乏特定领域的知识来执行任务,这也会在推理过程中引起幻觉。在之前的一些工作中,图神经网络(GNN)等附加模块是根据从外部知识库中检索到的知识进行训练的,旨在缓解缺乏特定领域知识的问题。然而,合并额外的模块:1)当遇到新的领域时,需要重新训练额外的模块;2) 将成为一个瓶颈,因为LLM的强大能力没有完全用于检索。在本文中,我们提出了一种称为知识求解器(KSL)的范式,教LLM通过利用自身强大的可推广性,从外部知识库中搜索基本知识。具体来说,我们设计了一个简单而有效的提示,将检索转换为多跳决策序列,使LLM能够以零样本的方式搜索知识。此外,KSL能够提供完整的检索路径,从而提高LLM推理过程的可解释性。我们在三个数据集上进行了实验:CommonsenseQA、OpenbookQA和MedQA USMLE,发现我们的方法以相对较大的幅度提高了LLM基线性能。
1 引言
2 相关工作
3 问题定义
4 方法
5 实验
6 结论
在本文中,我们提出了知识求解器(KSL),它可以帮助LLM以零样本和微调的方式更好地执行特定领域的知识需求任务。有了外部知识,LLM可以利用自己的能力搜索必要的知识和信息来执行相关任务,而无需额外的训练或模块。我

本文介绍了一种名为知识求解器(KSL)的方法,它教导大型语言模型(LLM)如何从知识图谱中搜索特定领域的知识,以增强其推理能力。KSL通过将检索转化为多跳决策序列,使LLM能够零样本搜索知识,提高可解释性,并在多个数据集上提升了LLM的性能。
订阅专栏 解锁全文
1313

被折叠的 条评论
为什么被折叠?



