认知篇:什么是CoT(思维链)? 也许GPT需要你引导

本文探讨了大型语言模型(如GPT)中的Chain-of-Thought(CoT)或思维链提示技巧,通过实例展示如何通过提供推理过程引导模型得出更准确的答案,以克服逆转诅咒现象。研究者引用了相关论文来支持这一策略的有效性。

本系列文章主要是分享一些关于大模型的一些学术研究或者实验性质的探索,为大家更新一些针对大模型的认知。所有的结论我都会附上对应的参考文献,有理有据,也希望这些内容可以对大家使用大模型的过程有一些启发。

注:本系列研究关注的是大型语言模型(Large Language Models, LLMs)的普遍特性,而非专指GPT。在文中,我们使用“GPT”作为一个典型例子来代表这一类模型,但请读者注意,所讨论的观点和结论通常也适用于其他同类大型模型。这样的表述旨在简化叙述,同时也强调了这些发现的广泛适用性。
不定期更新,敬请期待~

Chain-of-Thought(CoT, 思维链)其实是一种日用而不知的技巧。

首先看一个例子,还是上一篇的例子举例:

认知篇:什么是逆转诅咒?一个提问GPT的错误姿势

我还是这么提问:

古诗中,“白云千载空悠悠”的上一句是什么?

在这里插入图片描述

此时再一次生成了一个非常不靠谱的回答。

什么是“思维链提示方法”呢?

没有思维链提示方法的时候,对于上面这个问题,就只能听天由命,等待大语言模型每一次运行产生的一个随机结果中可能有一个是正确的…

那么,使用思维链提示词的方法怎么得到答案呢?你要这么一步步引导GPT得到正确答案。

现在,额外告诉GPT一个信息,看一下GPT能否猜出来。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

江鸟阁长

你的支持是我更新的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值