本文是LLM系列的文章,针对《Tree of Thoughts: Deliberate Problem Solving
with Large Language Models》的翻译。
摘要
语言模型越来越多地被部署用于解决各种任务中的一般问题,但在推理过程中仍然局限于token级别的从左到右的决策过程。这意味着他们可能无法完成需要探索、战略前瞻或初始决策发挥关键作用的任务。为了克服这些挑战,我们引入了一种新的语言模型推理框架“思维树”(ToT),它概括了流行的“思维链”方法来提示语言模型,并能够探索连贯的文本单元(“思维”),作为解决问题的中间步骤。ToT允许LMs通过考虑多个不同的推理路径和自我评估选择来进行深思熟虑的决策,以决定下一步行动,并在必要时前瞻或回溯以做出全局选择。我们的实验表明,ToT显著提高了语言模型在三项需要非琐碎计划或搜索的新任务上的解决问题能力:24小时游戏、创意写作和迷你交叉词。例如,在《24小时游戏》中,具有思维链提示的GPT-4只解决了4%的任务,而我们的方法的成功率为74%。带有所有提示的代码库:https://github.com/ysymyth/tree-of-thought-llm.
1 引言
2 背景
3 思维树:用LM进行深思熟虑的问题解决
4 实验
5 相关工作
6 讨论
限制和未来方向。对于GPT-4已经擅长的许多现有任务来说,像ToT
本文介绍了一种名为“思维树”(ToT)的框架,旨在改进大型语言模型(LLMs)的推理过程。ToT允许模型通过探索不同路径、自我评估和前瞻来解决需要复杂计划或搜索的任务。实验显示,该方法在24小时游戏、创意写作和迷你交叉词等任务上显著提高了模型的解决问题能力,特别是在《24小时游戏》中的成功率从4%提高到74%。尽管这种方法需要更多资源,但它为LMs在编码、数据分析等领域应用提供了新机遇,同时也带来了模型决策的可解释性和人类对齐的机会。
已下架不支持订阅
930

被折叠的 条评论
为什么被折叠?



