一文总结提示工程框架,除了CoT还有ToT、GoT、AoT、SoT、PoT

本文介绍了如何通过Chain-of-Thought、CoT-Self-Consistency、Tree-of-Thoughts、Graph-of-Thoughts、Algorithm-of-Thoughts等方法来引导大语言模型提供更恰当的答案,这些框架模仿人类思维过程,提升模型在决策和复杂问题处理上的表现。

夕小瑶科技说 原创
编译 | 谢年年

大语言模型LLM被视为一个巨大的知识库,它可以根据你提出问题或陈述的方式来提供答案。就像人类可能会根据问题的不同提供不同的答案一样,LLM也可以根据输入的不同给出不同的答案。因此,你的问题或陈述方式就显得非常重要。

如何引导大语言模型给出更恰当的答案,是最近研究的热点。经常用到的方法如让大模型扮演一个角色,或是给出几个示例都可以引导大模型给出更好的答案。除此之外还有一直以来很火热的思维链的方法也是值得尝试的。

在这篇文章中,我们总结了各种增强LLM推理的提示工程框架,包括:

  • Chain-of-Thought[1]

  • Chain-of-Thought-Self-Consistency[2]

  • Tree-of-Thoughts[3]

  • Graph-of-Thoughts[4]

  • Algorithm-of-Thoughts[5]

  • Skeleton-of-Thought[6]

  • Program-of-Thoughts[7]

一起来看看吧~

大模型研究测试传送门

GPT-4传送门(免墙,可直接测试,遇浏览器警告点高级/继续访问即可):
https://gpt4test.com

Chain-of-Thought思维链

与其直接输出答案,不如为语言模型提供中间推理示例来指导其响应。

思维链(CoT) 被认为最具开拓性和影响力的提示工程技术之一,它可以增强大型语言模型在决策过程中的表现。

与传统的提示方法强调直接的输入和输出互动不同,CoT迫使模型将推理过程划分为中间步骤。这种方法类似于人类的认知过程,将复杂的挑战分解为更小、更易于管理的部分。

Chain-of-Thought Prompting, source: Wei et al. (2022)

▲Chain-of-Thought Prompting, source: Wei et al. (2022)

如上图中的例子,对于一个数学问题:“罗杰拥有5个网球,随后购买了2罐网球,每个罐含有3个球。他现在拥有多少个网球?”我们可以通过逐步分析来解答这个问题。

  1. 首先

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值