本文是LLM系列文章,针对《BOOSTING OF THOUGHTS: TRIAL-AND-ERROR PROBLEM SOLVING WITH LARGE LANGUAGE MODELS》的翻译。
摘要
大型语言模型(LLM)在一系列问题上的推理性能严重依赖于思维链提示,这涉及到在提示中提供一些思维链演示作为示例。最近的工作,如思维树,指出了探索和自我评估在复杂问题解决的推理步骤选择中的重要性。在本文中,我们提出了Boosting of Thoughts(BoT),这是一种用LLM解决问题的自动提示框架,通过迭代探索和自评估许多思维树,以获得一系列试错推理经验,这将成为解决复杂问题的一种新的提示形式。从一个不需要示例的简单提示开始,BoT迭代地探索和评估大量推理步骤,更重要的是,使用从LLM获得的错误分析来明确地修改提示,这反过来增强了推理步骤的生成,直到获得最终答案。我们在广泛的复杂数学问题中使用GPT-4和Llama2进行的实验表明,与其他高级提示方法相比,BoT始终实现更高或相当的问题解决率。
1 引言
2 相关工作
3 BOT
4 实验
5 结论
本文验证了一个简单的提示可以通过逐步积累对其生成思想的错误分析来增强,以解决复杂的任务。我们提出了一个新的框架,即思维助推(BoT),以通过经验驱动的迭代过程来实现这种渐进式的快速增强,从而有效地生成思想。反复探索和自我评估生成的简

本文介绍Boosting of Thoughts(BoT)框架,利用大型语言模型(LLM)通过迭代探索和自评估解决复杂问题。BoT从简单提示开始,通过错误分析增强推理步骤,提升问题解决能力。实验证明,BoT在复杂数学问题上比其他高级提示方法表现更优。
已下架不支持订阅
1614

被折叠的 条评论
为什么被折叠?



