推理型大模型(Reasoning Large Language Models)例如DeepSeek-R1和OpenAI-O1等在数学和编程等复杂领域展现了令人印象深刻的能力。它们成功的关键因素之一在于它们应用了长链推理(Long Chain-of-Thought, Long CoT)的特性,这种特性增强了模型的推理能力,使其能够解决复杂的问题。
过去三年中选定的长链推理(Long CoT)的演变,其中彩色分支代表不同的特征:深度推理、可行反思和广泛探索。每个特征进一步细分为关键领域:深度推理包括其格式和学习方法。可行反思关注反思过程中的反馈和优化策略中的细化技术。广泛探索涉及长链推理的关键改进,包括规模扩展、内部探索和外部探索。
哈工大&中南大学&港大&复旦联合发表最新Long-CoT最新技术综述,围绕长链推理的定义、与传统短链推理(Short CoT)的区别、关键特性(如深度推理、广泛探索和可行反思)、相关现象(如“过思考”和测试时扩展)以及未来发展方向进行了全面梳理和分析。
一、Long CoT与Short CoT讨论
详细讨论了长链推理和短链推理的区别,并引入一个新的分类体系来对当前的推理范式进行分类。
1. Short CoT 的特点
- 定义:Short CoT 是一种较为浅层的推理方式,通常涉及较少的逻辑节点(logical nodes),推理过程较为直接,逻辑链条较短。
- 推理深度:Short CoT 通常仅涉及简单的逻辑推理,难以处理复杂的多步骤问题。
- 效率:Short CoT 的推理过程快速且高效,适合处理简单或结构化的问题。
- 局限性:由于逻辑链条较短,Short CoT 在处理复杂问题时容易出现错误或无法得出正确结论,尤其是在需要深度逻辑分析的任务中。
2. Long CoT 的特点
- 定义:Long CoT 是一种深度推理方式,涉及更多的逻辑节点和更复杂的推理路径,能够处理复杂的多步骤问题。
- 推理深度:Long CoT 能够处理更复杂的逻辑结构,支持更深入的推理过程,适合解决需要多步骤分析的问题。
- 探索性:Long CoT 包含广泛的探索能力,能够通过生成并行的不确定节点来扩展推理边界,从而探索更多可能的解决方案。
- 反思性:Long CoT 强调对推理过程的反思和修正,能够通过反馈机制优化推理路径,减少错误。
- 适用性:Long CoT 在数学、编程、科学推理等需要深度逻辑分析的领域表现出色,能够显著提升模型的推理能力和准确性。
长链推理(Long CoT)的分类体系:深度推理、可行的反思以及广泛的探索方法
二、Long CoT分析
对长链推理进行了深入分析和评估,探讨了其在推理大型语言模型中的作用、现象、机制以及面临的挑战:
2.1 Long CoT的外部行为分析(External Behavior Analysis)
Long CoT的六种外部行为现象分析
- Long CoT的出现现象:研究表明,上下文示例能够引导模型生成推理链,标准化推理链的生成过程。通过实验发现,仅保留逻辑结构的上下文示例也能实现与完整示例相似的性能,强调了Long CoT在推理中对逻辑结构的模仿能力。
- 推理边界的限制:研究指出,RLLMs在推理任务中存在性能上限,当任务复杂度超过模型的推理边界时,性能会下降。例如,在代码生成任务中,模型在处理复杂逻辑时会遇到困难。此外,模型的输入长度也会影响其推理能力。
- 过度思考现象(Overthinking Phenomenon):研究表明,随着推理链长度的增加,模型性能会先上升后下降。这表明,推理链长度与逻辑复杂性之间存在一个最优平衡点。当推理链超出模型的推理边界时,会导致性能下降,甚至可能出现“幻觉”或错误累积。
- 推理测试时扩展(Inference Test-Time Scaling Phenomenon):研究探讨了推理测试时扩展算法,包括垂直扩展(增加推理路径长度)和平行扩展(增加推理尝试次数)。虽然这些方法可以在一定程度上提高性能,但超出模型推理边界后,性能提升会受限。
- ORM与PRM现象:研究分析了结果奖励模型(Outcome Reward Model, ORM)和过程奖励模型(Process Reward Model, PRM)在推理中的应用。ORM在数学和逻辑任务中表现出色,但PRM在某些情况下可能更有效。此外,研究还探讨了ORM和PRM之间的关系,以及如何通过奖励模型优化推理过程。
- “顿悟时刻”(Aha Moment Phenomenon):部分研究表明,通过强化学习训练的模型可能会出现“顿悟时刻”,即模型能够自然地进行自我反思和改进。然而,也有研究指出,在某些情况下,模型可能无法实现真正的自我反思,而是表现出表面的自我反思行为。
2.2 Long CoT的内部机制分析(Internal Mechanism Analysis)
- 注意力机制(Attention Mechanism):研究发现,Long CoT的生成与模型的注意力机制密切相关。例如,System 2 Attention(S2A)能够通过选择性关注相关信息来生成Long CoT。此外,研究还探讨了模型内部梯度分布对推理稳定性的影响。
- 知识整合机制(Knowledge Incorporation Mechanism):研究分析了如何将领域特定的知识整合到Long CoT中。例如,通过概率混合模型(Probabilistic Mixture Model, PMM)可以将模型输出分类为推理、记忆和猜测,并通过信息论一致性(Information-Theoretic Consistency, ITC)分析来量化模型置信度与策略选择之间的关系。
- 推理深度与知识深度(Concept Depth):研究探讨了模型在推理过程中对复杂概念的理解深度,发现不同模型在不同层次上整合知识的能力存在差异。此外,研究还通过知识循环演化分析了模型知识的内化过程。
三、Long CoT的深度推理
3.1 深度推理分类
- 自然语言深度推理(Natural Language Deep Reasoning):早期研究者如Wei et al. [594] 发现,使用自然语言的长链推理(CoT)显著增强了RLLMs的推理能力。CodeI/O [285] 进一步将代码推理模式重组为自然语言格式,提升了模型的推理潜力。
- 结构化语言深度推理(Structured Language Deep Reasoning):包括程序语言或符号语言推理,如PoT [70] 和Brain [76] 等,通过环境引导的神经符号自训练框架,解决了符号数据稀缺和符号处理限制的问题。
- 潜在空间深度推理(Latent Space Deep Reasoning):将推理过程嵌入到连续的潜在空间中,分为基于推理令牌(Token-driven)、向量(Vector-driven)和管理器(Manager-driven)的推理方式。例如,Coconut [162] 通过维护多个推理路径,提高了推理效率。
3.2 深度推理学习
- 深度推理模仿(Deep Reasoning Imitation):通过模仿高级推理系统(如人类推理、先进RLLMs或通过扩展训练的RLLMs)来学习推理能力。例如,AceMath [347] 使用少量样本通过多阶段质量引导的微调来增强性能。
- 深度推理自学习(Deep Reasoning Self-Learning):通过偏好强化学习(RL)实现自学习,以增强推理能力。例如,STaR [707] 使用蒙特卡洛树搜索(MCTS)引导的自训练,通过奖励机制优化推理路径。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。