Tree of Thoughts: Deliberate Problem Solving with Large Language Models

828 篇文章

已下架不支持订阅

本文介绍了一种名为“思维树”(ToT)的框架,旨在改进大型语言模型(LLMs)的推理过程。ToT允许模型通过探索不同路径、自我评估和前瞻来解决需要复杂计划或搜索的任务。实验显示,该方法在24小时游戏、创意写作和迷你交叉词等任务上显著提高了模型的解决问题能力,特别是在《24小时游戏》中的成功率从4%提高到74%。尽管这种方法需要更多资源,但它为LMs在编码、数据分析等领域应用提供了新机遇,同时也带来了模型决策的可解释性和人类对齐的机会。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列的文章,针对《Tree of Thoughts: Deliberate Problem Solving
with Large Language Models》的翻译。

摘要

语言模型越来越多地被部署用于解决各种任务中的一般问题,但在推理过程中仍然局限于token级别的从左到右的决策过程。这意味着他们可能无法完成需要探索、战略前瞻或初始决策发挥关键作用的任务。为了克服这些挑战,我们引入了一种新的语言模型推理框架“思维树”(ToT),它概括了流行的“思维链”方法来提示语言模型,并能够探索连贯的文本单元(“思维”),作为解决问题的中间步骤。ToT允许LMs通过考虑多个不同的推理路径和自我评估选择来进行深思熟虑的决策,以决定下一步行动,并在必要时前瞻或回溯以做出全局选择。我们的实验表明,ToT显著提高了语言模型在三项需要非琐碎计划或搜索的新任务上的解决问题能力:24小时游戏、创意写作和迷你交叉词。例如,在《24小时游戏》中,具有思维链提示的GPT-4只解决了4%的任务,而我们的方法的成功率为74%。带有所有提示的代码库:https://github.com/ysymyth/tree-of-thought-llm.

1 引言

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值