本文是LLM系列文章,针对《StructGPT: A General Framework for Large Language Model to Reason over Structured Data》的翻译。
摘要
本文研究如何统一地提高大型语言模型(LLM)对结构化数据的零样本推理能力。受LLM工具增强研究的启发,我们开发了一种迭代阅读然后推理(IRR)方法,用于解决基于结构化数据的问答任务,称为StructGPT。在我们的方法中,我们构造了专门的函数来从结构化数据中收集相关证据(即阅读),并让LLM基于收集的信息集中推理任务(即推理)。特别地,我们提出了一种调用线性化生成过程,以支持LLM在外部接口的帮助下对结构化数据进行推理。通过使用提供的接口迭代这些过程,我们的方法可以逐渐接近给定查询的目标答案。在三种类型的结构化数据上进行的大量实验证明了我们方法的有效性,它可以显著提高ChatGPT的性能,并实现与全数据监督调整基线相当的性能。我们的代码和数据可在https://github.com/RUCAIBox/StructGPT上公开获取。
1 引言
2 前言
3 方法
4 实验
5 结论
在这项工作中,我们提出了一个通用的框架来提高LLM对结构化数据的零样本推理能力,即StructGPT。在我们的方法中,我们首先构建了支持准确高效数据访问的专用接口,然后提出了一个调用线性化生成过程,该过程利用LLM读取并执行基于接口的推理。通过依次使用接口迭代上述过程,LLM可以逐步捕获更有用和详细的证据,并最终生成答案。为了验
StructGPT:提升LLM结构化数据推理的通用框架,

订阅专栏 解锁全文
440

被折叠的 条评论
为什么被折叠?



