为什么在提示词中添加“Let’s think step step”能提升大模型效果?

时间线:Chain-of-Thought(2022年1月) → Zero-shot-CoT(2022年10月) → Step-Back(2023年10月)

关键信息整理

  1. “Let’s think step by step”的来源
    这一方法属于Zero-shot-CoT(零样本思维链),最早由东京大学和谷歌在论文《Large Language Models are Zero-Shot Reasoners》中提出[1]。其核心是通过在提示词尾部追加“Let’s think step by step”,无需手动编写示例即可激发模型的推理能力。实验表明,该指令能显著提升模型在数学、逻辑等复杂任务中的表现[1]。

  2. Chain-of-Thought Prompting
    由Google团队在论文《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》(NeurIPS 2022)提出[4][6]。该方法通过提供包含中间推理步骤的少样本示例(Few-shot),引导模型生成逐步推理的答案。例如,在算术任务中,模型会先分解问题步骤再输出结果。实验显示,CoT对超过100B参数的模型效果显著

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大F的智能小课

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值