收藏!从入门到进阶:AI Agent技术演进全解析(含类Agent/真Agent实战方向)

本文深度拆解AI Agent的技术发展脉络,从早期LLM Agent雏形,到OpenAI O1、DeepSeek R1等"类Agent"模型的突破,再到OpenAI DeepResearch"真Agent"的成熟,系统梳理其核心构成要素(记忆机制、工具调用、自主规划)与行业现存技术瓶颈。文中明确:强化学习驱动的端到端Agent训练已成为行业核心趋势,"模型即产品"理念与Agent社会化协同将定义未来发展方向,而工程化Agent与端到端Agent模型将长期互补共存。无论你是刚入门大模型的小白,还是寻求技术突破的程序员,这份梳理都能帮你快速把握Agent技术核心与学习重点。

一、AI Agent发展时间线:从Transformer到Agent元年

要理解AI Agent的演进,我们先从LLM(大语言模型)的技术根基说起——其核心技术Transformer的诞生,是整个AI Agent生态的起点。以下是关键节点的梳理,帮你快速建立技术认知:

  1. 2017年前:NLP的"史前时代":此时AI领域尚未出现突破性架构,NLP(自然语言处理)领域长期被RNN、LSTM等模型主导,性能瓶颈明显,难以实现复杂的语言理解与生成。
  2. 2017年:Transformer开启新纪元:《Attention Is All You Need》论文的发表,提出了革命性的注意力机制与Transformer架构,彻底打破了此前的技术僵局,为后续大模型与AI Agent的发展奠定了核心基础,堪称AI领域的"第二次启蒙"。
  3. GPT-3时代:代码生成的破局:GPT-3的诞生首次展现了大模型在代码生成场景的潜力,而基于其开发的GitHub Copilot,重新定义了代码补全工具的形态,让开发者首次直观感受到大模型的实用价值。
  4. ChatGPT爆发:大模型走向大众:基于GPT-3.5的ChatGPT以自然语言聊天的形态,将大模型从技术圈推向普罗大众,其增长速度超越TikTok,成为史上用户增长最快的应用,也让"对话式AI"的概念深入人心。
  5. 2023年:AI Agent的白银时代:GPT-4作为首个参数突破万亿的大模型,展现出极强的综合性能。OpenAI不再单纯追求参数规模,转而推出插件系统、GPTs等生态工具,并将工具使用能力通过Function Call集成到模型中。同年,CoT(思维链)、ReAct(Agent核心框架)等关键技术相继问世,行业内涌现出大量LLM应用开发框架,AI Agent的技术雏形逐渐清晰。
  6. 2024年:Agent的蛰伏与转型:这一年,大模型的预训练Scaling Law(缩放定律)出现瓶颈,GPT-4性能停滞、GPT-5迟迟未发布。而OpenAI O1的推出,标志着大模型训练路径从"规模扩张"转向"推理优化",为后续类Agent模型的出现埋下伏笔。
  7. 2025年:Agent元年到来:后预训Scaling Law开始生效,蛰伏两年的AI Agent技术正式浮出水面。强化学习技术的应用让大模型迎来"第二春",后训练Scaling Law成为新的技术增长点,AI Agent从概念走向实用。

二、AI Agent是怎样炼成的?从文本补全到智能决策

AI Agent是大模型应用的高级形态,但在理解它之前,我们需要先搞懂大模型最核心的工作逻辑——文本补全。这是所有大模型应用(包括Agent)的基础,小白必看!

1. 基础认知:LLM的核心工作模式——文本补全

简单来说,大模型的核心能力就是"续写文本"。比如我们输入:“下面我将要讲一个故事。在很久很久以前,有一个”,大模型会接收这段文本后,自动生成后续内容:“小村庄坐落在群山环绕之中。村子里住着……”,完成一次输入输出循环。

这里有两个关键概念需要明确(小白记好笔记):

  • 提示词(Prompt):用户输入的文本内容,用于引导大模型生成符合需求的结果;
  • 生成内容(Generated Text):大模型根据提示词输出的文本。

看似简单的"输入-输出"背后,是两大核心技术领域的支撑:提示词工程(如何写好提示词引导模型)和模型预训练(如何让模型具备更强的生成能力)。也正因为提示词基于自然语言,很多非AI科班、非专业开发人员也能参与到大模型应用开发中,形成了庞大的提示词工程阵营——这也是大模型应用门槛降低的关键原因。

2. 核心定义:到底什么是AI Agent?

行业内曾有个普遍误区:把所有基于大模型的聊天机器人都叫做AI Agent。无论是角色扮演应用、流程编排的工作流,还是能自主决策的智能程序,都被笼统归类。但随着2025年AI Agent元年的到来,我们必须明确其核心定义:

AI Agent是基于大模型,具备记忆能力、能够自主推理规划并使用工具,从而解决复杂问题的智能程序。用公式总结就是:AI Agent = 大模型 + 记忆 + 工具使用 + 自主规划。

其中"基于大模型"是基础,意味着我们可以通过自然语言与Agent交互——聊天就是最直观的交互方式。而记忆、工具使用、自主规划,是Agent区别于普通聊天机器人的核心特征,我们逐一拆解:

(1)记忆能力:支撑多轮对话的核心

记忆能力让Agent能记住与用户过往的聊天和互动历史。这也是为什么你和AI伴侣聊完天后,第二天它不会问"你是谁"——因为它保留了之前的交互记忆。

从技术实现来看,早期的记忆能力是通过将前序聊天记录附加到提示词中实现的,但很快就遇到了问题:聊天记录过多会导致模型上下文窗口被占满(爆Token),无法继续生成内容。为此,行业内又发展出多种优化方案:只保留最近N次聊天记录、通过语义检索提取与当前问题相关的历史记录等。

但要注意:仅有记忆还不够——光会聊天不会做事,算不上真正的Agent。

(2)工具使用:Agent的"手脚"

工具使用能力,让Agent能够访问外部资源、调度数据接口,从而拓展自身能力边界。比如常见的"联网搜索",就是典型的工具使用场景:Agent会将你的问题与网络上的相关信息结合,再生成更准确的答案。

但这里有个关键区别:不是所有能使用工具的程序都是Agent。我们以"元宝"的联网搜索功能为例,就能看清差异:

  • 手动挡联网:只要用户勾选,每次提问都会强制联网搜索,属于"固定流程",没有自主判断;
  • 自动挡联网:Agent会先判断问题是否需要外部信息,需要才联网,不需要则直接回答——这背后就是"自主规划和反思"的过程,也是AI Agent的核心特征。
① 工具使用的核心技术:Function Call

大模型本质是文本模型,只能输出文本,那它是如何控制工具的?答案是:大模型通过输出特定格式的文本,来"指令"应用程序调用工具。具体流程如下:

我们向大模型输入的提示词包含三部分:可用工具的功能与参数说明、工具调用规范及示例(通过Few-Shot技术让模型学习)、用户的具体问题。大模型会按照规范输出工具调用指令(比如一串JSON格式数据,说明要调用search_web工具,参数为query和limit),应用程序解析这串文本后,执行对应的工具调用。

后来,OpenAI率先将这种"指导模型使用工具"的能力预训练到模型中,命名为Function Call。这意味着开发者无需再通过复杂提示词指导模型,只需告知模型可用工具即可——后续主流大模型都纷纷跟进支持这一功能。

② 工具使用的标准化:MCP协议

MCP(Model Context Protocol)是Anthropic(Claude母公司)在2024年底提出的大模型上下文协议,核心目的是让Agent能更便捷地发现和使用各类工具,拓展能力边界。其最早落地于Claude桌面端,支持Agent对用户计算机文件进行读写、操控电脑操作。

如今MCP已成为Agent工具使用的事实标准,国内外大模型厂商纷纷支持。这里要纠正一个常见误解:MCP并不是要替代Function Call,而是与它紧密配合。简单来说:Function Call是大模型"发出工具调用指令"的能力(负责"说"),MCP是工程侧"执行工具调用"的标准化手段(负责"做")。

在MCP出现前,Agent接收Function Call指令后,需要开发者自行实现读写文件、调用搜索接口等功能,开发效率低、成本高;MCP统一了工具调用规范,厂商按MCP Server标准提供服务,Agent只需通过call_tool这个MCP Client功能即可调用各类工具,大幅降低了开发成本。

(3)自主规划与反思:Agent的"大脑"

只会机械使用工具的程序,算不上真正的Agent。自主规划、反思甚至自我批评,是Agent模拟人类工作方式的核心,也是其能解决复杂问题的关键。这部分主要依赖两大核心技术:CoT(思维链)和ReAct框架。

① 规划能力:思维链(CoT)

CoT(Chain of Thought,思维链)是Wei等人在2022年提出的提示词技术,如今已成为提升大模型处理复杂任务性能的标准方案。其核心思路是:引导模型"逐步思考",将复杂任务拆解为多个更小、更简单的子步骤,再逐一解决——就像我们做数学题时,会一步步写下解题过程一样。

除了CoT,行业内还有思维树(Tree of Thoughts,ToT)、思维图(Graph of Thoughts,GoT)等扩展方案,在特定场景下能进一步提升性能,但在实际应用中,CoT仍是绝对主流。对于DeepSeek R1这类推理型模型,CoT还能让模型的推理过程更透明,方便开发者调试优化。

② 反思能力:ReAct框架

ReAct(Reasoning Acting,思考-行动)是Yao在2023年提出的Agent核心框架,指导Agent通过"思考-行动-观察"的循环完成任务——这和人类的PDCA(计划-执行-检查-改进)工作法异曲同工。具体流程如下:

  1. 思考(Thought):明确解决当前问题需要采取的下一步行动;
  2. 行动(Action):模型输出行动指令,调用外部工具;
  3. 观察(Observation):将工具执行结果反馈给模型,供其分析;
  4. 判断:若工具结果已能解决问题,组织语言回答;若信息不足,进入下一轮循环,继续思考与行动。

如今,包括基于OpenAI Function Call实现的Agent在内,绝大多数实用型Agent都采用ReAct模式——区别仅在于,使用内置Function Call的Agent无需额外通过提示词指导模型行动,效率更高。

三、AI Agent的痛点:为什么看似强大却难落地?

很多开发者可能有这样的体验:花一两天就能开发出一个能运行的Agent,但要做出一个"能用、好用"的Agent,却需要大量投入。这背后的核心问题是:AI Agent的可靠性不足、上限较低,直到2025年Manus爆火后,才真正走进大众视野。

判断一个Agent是否可用,关键看两个维度:具体场景的错误容忍度、用户的介入程度。比如AI编程场景,开发者对Agent生成的代码容忍度较高——即使有问题,也能通过反复沟通修正,最终达到可接受的结果,这也是Vibe Coding(AI辅助编程)场景爆火的原因;DeepResearch聚焦的研报场景同理,容错度高、用户可介入修正。

目前行业内的生产级Agent,大多具备两个特征:任务复杂度与规模较低、错误容忍度高。而限制Agent在大规模复杂问题上落地的核心痛点,主要是两个:幻觉问题和记忆管理难题。

1. 幻觉问题:大模型的"天然缺陷"

大模型本质是概率模型,其生成的内容存在一定概率是错误的——这就是我们常说的"幻觉"。而Agent执行复杂任务时,通常需要多次调用大模型(比如多次思考、多次调用工具),这会导致"错误累积":假设单次大模型调用的正确率是90%,经过4次组合调用后,整体正确率会直接下降到60%-70%,难以满足生产级需求。

2. 记忆管理难题:Agent的"记忆困境"

当前基于大语言模型的Agent普遍面临"记忆困境",核心原因是:大模型本身是无状态的,而人类的记忆是持续演进的——这种本质差异导致传统记忆实现方式在复杂场景下完全失效。具体来说,主要有三个问题:

(1)上下文窗口的物理限制

主流大模型的上下文窗口容量是固定的(比如GPT-4的32k tokens),这意味着当对话轮次过多、任务复杂度超出窗口容量时,必然会截断历史信息——关键记忆丢失,Agent无法继续正常工作。同时,随着上下文长度增加,模型的处理效率会呈指数级下降,在连续多日项目管理这类需要长期记忆的场景中,问题尤为突出。

目前大模型厂商都在全力提升上下文窗口容量,截止发稿,Meta的Llama scout已支持1000万token的超大上下文,但这只是解决问题的第一步。

(2)超长上下文的注意力衰减

即使上下文窗口足够大,能容纳下整部《哈利·波特》,另一个问题也会凸显:注意力有效性衰减。Transformer架构的自注意力机制计算复杂度是O(n²),随着上下文长度增加,有效注意力会被大幅稀释。

根据ICLR 2023的研究成果:在16k tokens的上下文长度下,模型对前20%输入内容的注意力权重占比超过65%,而对后20%内容的注意力权重不足8%——这种"近因偏好"会导致早期关键信息被覆盖,记忆的时序稳定性极差。更严重的是,处理百页技术手册这类超长文档时,模型可能出现"注意力涣散",漏读、误读关键信息。

目前Google的BigBird、DeepSeek的NSA(Native Sparse Attention)等技术,都在致力于解决注意力衰减问题,但尚未完全突破。

(3)相关记忆的准召难题

既然"全量保留历史记录"不可行,行业内又提出了"按需召回"的思路:将聊天记录存储在向量数据库中,通过语义检索召回与当前问题相关的历史记录,注入上下文。但这种方案的核心瓶颈是:向量数据库的召回准确率(准召率)难以保证。

为了提升准召率,RAG(检索增强生成)技术一路演进——从基础RAG到基于知识图谱的RAG,再到如今的Agentic RAG(Agent增强RAG),但问题仍未彻底解决。准召率直接决定了Agent的记忆可靠性,进而影响最终输出质量,这也是当前Agent开发的核心难点之一。

四、破局之路:提升AI Agent性能的3大方向

针对上述痛点,行业内已探索出多种解决方案,总结下来主要分为三大类:引入固化工作流提升确定性、优化ReAct框架突破性能瓶颈、通过多Agent协作发挥群体智慧。这三类方案各有优劣,适用于不同场景,开发者可根据需求选择。

1. 方向一:引入Workflow,用确定性换稳定性

核心思路:既然Agent的自主决策不稳定,那就通过固化工作流程来约束其行为,提升输出的确定性——这就是AI Workflow的核心逻辑。从技术本质来看,Workflow是"低代码开发框架+LLM"的结合,属于"旧瓶装新酒",但在大模型时代重新流行起来,主要原因有两个:

  • 开发范式转变:当前大模型应用开发的核心是提示词工程,开发者需要高频迭代提示词而非底层代码,Workflow的可视化编排能力能大幅提升迭代效率;
  • 降低调试门槛:非技术背景人员也能通过直观的可视化界面完成AI能力集成,降低了大模型应用的开发门槛。

需要注意的是:Workflow本身并不是AI Agent——它更像是"标准化的业务逻辑封装",LLM仅作为模块化组件服务于特定环节,无法实现Agent的自主推理能力。但Workflow可以作为Agent的工具,成为Agent的有机组成部分——比如Agent在执行特定标准化任务时,可调用Workflow模块提升效率。

2. 方向二:优化ReAct框架,突破性能瓶颈

ReAct是当前Agent的主流框架,但存在三个明显缺陷:① 走一步看一步,缺乏全盘规划;② 串行调度工具,效率低下;③ 工具执行结果全量注入上下文,易触发Token限制。针对这些问题,行业内衍生出多种优化方案,以下是三个代表性框架:

(1)Plan and Execute:先规划再执行,避免盲目行动

该框架受Plan-and-Solve论文和Baby-AGI项目启发,核心是在执行任务前先制定全盘计划,再按计划执行,最后根据结果动态调整。具体分为三个阶段:

  • 规划阶段:生成多步骤的详细行动计划,明确每个步骤的目标;
  • 执行阶段:按顺序执行每个计划步骤,返回执行结果;
  • 重规划阶段:根据执行结果动态调整计划,或直接返回最终答案。

这种模式的优势在于:① 引入全盘规划,减少盲目行动;② 将子任务分拆到Single-Task Agent执行,避免在同一个LLM会话中堆积Token,降低爆Token风险。Manus的Agent就借鉴了这一思路——先生成任务清单,再逐个执行,只是暂时未加入重规划步骤。

(2)ReWOO:分离推理与观察,提升效率

ReWOO(Reasoning Without Observation,无观察推理)的核心创新是:将"推理"与"观察"分离,通过模块化设计提升多步推理任务的效率。传统ReAct框架中,"推理-工具调用-观察"是交替进行的,导致大量上下文重复输入、计算资源浪费;而ReWOO将任务拆解为三个独立模块,并行执行提升效率:

  • Planner(规划器):基于LLM生成任务蓝图,规划推理路径,无需等待工具实时反馈;
  • Worker(执行器):根据蓝图并行调用外部工具(搜索引擎、计算器等),收集证据;
  • Solver(求解器):综合规划结果与工具执行证据,生成最终答案,具备纠错能力。

ReWOO的最大特点是:Worker执行工具调用时,不将结果实时反馈给Planner(无观察),减少Token使用和LLM调用次数。与Plan and Execute相比,ReWOO的Worker仅负责工具执行,无需额外LLM驱动,且没有重规划过程,架构更简洁。

(3)LLM Compiler:用编译器思维优化任务编排

LLM Compiler的核心思路是:借鉴编译器的任务编排逻辑,通过并行化和动态规划优化多工具协作效率。针对传统ReAct框架因顺序执行工具调用导致的延迟高、成本大、准确率低等问题,LLM Compiler引入三大核心组件:

  • 智能规划器(Planner):将用户查询解析为带依赖关系的任务DAG(有向无环图),识别可并行执行的任务(如并行搜索与数学计算);
  • 动态调度器(Task Fetching Unit):实时替换占位变量、分发独立任务,最大化并行资源利用率;
  • 异步执行器(Executor):通过工具API并发执行任务,支持自定义工具集成。

与前两种框架相比,LLM Compiler的优势在于:基于任务依赖关系实现并行调度,且支持根据执行结果动态重规划,在复杂多工具协作场景中效率更高。

3. 方向三:多Agent协作,发挥群体智慧

人类社会有句俗语:“独行快,众行远”。单个Agent在简单任务中表现尚可,但在复杂、大规模任务中往往力不从心。于是行业内开始借鉴人类团队协作模式,让多个Agent组成"团队",通过分工协作突破单Agent的能力极限——这就是多Agent的核心逻辑。

(1)多Agent的两大形态

根据应用场景的不同,多Agent可分为两种核心形态,适用场景差异明显:

① 社会协同模拟型

典型代表是"斯坦福小镇"这类实验性项目。这类形态不设定具体任务,而是提供一个开放环境,让Agent自发地交互、协同,产生"化学反应"——核心目的是研究Agent的社会化协同规律,为后续技术发展提供理论支撑。

② 任务导向型

这类形态的目标性极强,有明确的任务目标和标准操作流程(SOP),典型场景如软件开发、长篇内容创作(论文、小说)等。MetaGPT是这类多Agent的代表框架——它通过拆解软件开发的标准流程(需求分析、架构设计、编码、测试等),为每个环节设定专属Agent角色(产品经理、架构师、工程师、测试工程师),通过角色分工完成全生命周期的软件开发任务。

(2)主流多Agent开发框架

目前行业内有多个成熟的多Agent开发框架,各有侧重,开发者可根据场景选择:

  1. MetaGPT:聚焦软件开发场景,通过模拟软件公司的角色分工,将SOP编码为Agent协作流程,支持从需求分析到代码生成的全生命周期自动化,擅长结构化文档与代码输出;
  2. AutoGen:微软推出的轻量级对话框架,支持自定义Agent角色与自然语言交互,核心优势是实现人机混合协作,适合需要动态决策的场景;
  3. CrewAI:开源协作框架,强调角色扮演与团队管理,支持自定义角色、任务委派及流程控制(顺序/层级模式),适合构建分工明确的协作系统(如市场分析、项目管理);
  4. Swarm:OpenAI的实验性框架,聚焦Agent间的动态任务交接(Handoffs),通过函数调用实现执行权转移,与Chat Completions API深度整合,适合小规模多Agent交互场景。

补充说明:LangChain、LangGraph这类通用大模型开发框架也可用于搭建多Agent系统,只是它们的适用范围更广泛,并非专为多Agent设计。

(3)多Agent的核心协同架构

LangGraph总结了多Agent的三类主流协同架构(除自定义架构外),适用场景各有不同:

  1. Network(网状架构):每个Agent可直接相互通讯,自由度高,但可控性差——适合社会协同模拟型多Agent;
  2. Supervisor(监督者架构):存在一个"管理者Agent",其他Agent无法直接沟通,只能与管理者交互。可控性高,但管理者的智能程度会成为瓶颈——适合任务导向型多Agent。若将非管理者Agent视为"工具",则该架构与单Agent架构类似;
  3. Hierarchical(层级监督者架构):由多个监督者网络堆叠而成,类似企业中的"部门-小组"结构。适合超大规模、复杂任务的协作,但架构复杂度高。

(4)Agentic Workflow:动态协作的进阶形态

Agentic Workflow(智能体工作流)由吴恩达提出,核心目标是通过"任务分解、多Agent协作、迭代改进"解决复杂任务,具备四大核心机制:工具调用、多Agent协作、规划能力、反思机制。很多开发者容易将其与Plan and Execute、Workflow+LLM混淆,我们通过对比明确差异:

① 与Plan and Execute的区别

Plan and Execute的子任务执行者是"通用Agent",负责遍历执行所有子任务;而Agentic Workflow要求"特定角色Agent执行特定任务"——比如数据分析任务由数据分析Agent执行,文案生成任务由文案Agent执行。若将Plan and Execute的通用执行者替换为多个专属Agent,可近似实现Agentic Workflow的效果。

② 与Workflow+LLM的区别
对比维度Agentic WorkflowWorkflow+LLM
动态规划能力Agent自主分解任务,动态调整执行路径LLM嵌入预定义流程,无动态规划
自我迭代优化通过反思机制形成闭环,持续优化无反馈循环,依赖单次提示效果
执行主体性质以Agent为核心,具备记忆与自主决策权LLM为"工具人",仅处理特定环节,无决策权
协作模式多Agent动态协作,形成集体智能模块独立运行,无动态协作

核心结论:Agentic Workflow是"多Agent集体动态生成的协作流程",可实时调整;而Workflow+LLM是"开发者定义的静态流程",无法自主变化。

③ 示例:基于CrewAI的客户优惠推荐系统

下图是通过CrewAI实现的多Agent优惠推荐系统,清晰展现了Agentic Workflow的核心逻辑:

蓝色部分是任务流程:① 提取用户购买记录;② 匹配最优优惠;③ 生成通知文案。绿色部分是专属Agent:① 购买历史分析Agent(编写SQL查询数据);② 优惠管理Agent(筛选最优折扣);③ 创意文案Agent(生成个性化通知)。

CrewAI支持两种调度模式:顺序执行(sequential)和层级模式(hierarchical)。其中层级模式由管理者LLM动态调度任务,才是真正意义上的Agentic Workflow——工作流由管理者自主决策、动态调整,具备反思优化能力;而顺序执行模式与Workflow+LLM无本质区别。

(5)多Agent的常见失败原因

多Agent看似美好,但实际落地中容易出现问题。加州大学伯克利分校等机构的论文《Why Do Multi-agent LLM Systems Fail》指出了三大核心失败原因,值得开发者警惕:

  1. 系统设计与规范问题(37.2%):架构缺陷、角色定义模糊、对话流程管理不当。比如Agent违反任务规范、角色越权、步骤重复、上下文丢失、终止条件不明确等;
  2. Agent间协作错位(31.4%):沟通机制低效、信息共享不足。比如对话意外重置、关键信息隐瞒、任务偏离主题(32%的任务因跑题失败)、推理与行动矛盾等;
  3. 任务验证与终止问题(31.4%):验证机制缺失、过早终止任务。比如未完成必要步骤就结束任务、验证不完整(仅检查表面问题)、验证逻辑缺陷等。

有趣的是,多Agent不仅复刻了人类的协作形态,还继承了人类沟通的"坏毛病"——隐瞒信息、跑题、知行不一,这些都是开发者需要重点解决的问题。

五、中场战事:推理型"类Agent"模型的崛起

在工程侧不断优化Agent架构的同时,模型侧也在探索新的突破方向——不再依赖复杂的工程设计,而是通过模型本身的能力实现类Agent的效果。OpenAI O1、DeepSeek R1等推理型模型的出现,标志着Agent技术进入"模型侧优化"的中场战事,也让"强化学习"成为新的技术风口。

1. OpenAI O1:犹抱琵琶半遮脸的推理先锋

OpenAI推出的推理模型O1,打破了传统大模型"即时输出"的模式——它会在输出最终答案前,先进行一次内部推理,再基于推理结论组织回答。这种"先思考、后输出"的模式,与Agent的"思考-行动"逻辑高度相似,因此被很多人称为"推理型Agent"。

O1刚发布时,推理过程是完全不可见的,用户只能看到Loading界面。OpenAI对此的解释是:① 技术权衡:展示原始推理链可能干扰模型的合规性与用户偏好训练,影响推理效果;② 保护核心技术:避免竞争对手模仿;③ 优化用户体验:原始推理链冗长复杂,展示摘要更高效。

2. DeepSeek R1:开源破局,掀翻行业格局

DeepSeek R1的发布,彻底改变了行业对推理模型的认知。它不仅在性能上超越O1,成本还低一个数量级,更重要的是——R1公开了全部推理过程(思维链),堪称真正的"Open AI"。DeepSeek还公开了R1的训练细节,为行业提供了可复用的技术路径:

  • R1-Zero版本:完全摒弃监督微调(SFT),通过多目标强化学习(创新的GRPO算法)整合准确性、推理速度、资源消耗三大指标。GRPO算法大幅降低了对标注数据的依赖,显著降低训练成本;
  • R1正式版:为解决R1-Zero思维链可读性差的问题,采用"两次SFT+RL"的训练流程:① 用少量冷启动数据(思维链样本)对基础模型V3进行SFT,再通过强化学习优化思维链可读性;② 基于上一步的模型生成60万条思维链样本+20万条示例数据,再次进行SFT,最后通过强化学习对齐需求。

3. 核心启示:强化学习是后训练的Scaling Law

R1-Zero的成功传递了一个关键信息:针对性的强化学习训练,效果可能优于单纯扩大模型参数量的预训练。这也是OpenAI O1的核心秘密——OpenAI已放弃"更大参数模型"的路线,全面转向"后训练+强化学习"。

强化学习并非新技术,其核心逻辑是:通过"生成结果-反馈奖励/惩罚-模型调整"的循环,让模型自主找到最优工作方式,无需人工逐一指导。O1验证了这一路径的可行性,R1则公开了技术细节,带动全行业转向强化学习——Claude Sonnet 3.7推出推理版,针对代码生成场景强化学习;OpenAI DeepResearch基于O3通过端到端强化学习,打造出"真Agent"模型。

4. 产品侧影响:R1带来的"深度思考"交互革命

DeepSeek R1在2025年春节爆火后,不仅改变了模型训练方向,还重塑了Agent的产品交互形态。其"先输出推理过程、再输出最终答案"的两阶段输出模式,成为行业标准,彻底解决了传统Agent的"等待焦虑"问题。

(1)R1前:Agent的"无效等待"困境

传统Agent执行任务时,需要经过多次思考、工具调用,直到最后一步才输出最终答案——中间过程漫长,用户只能等待。为缓解焦虑,厂商尝试展示中间步骤:比如ChatGPT展示工具调用日志、Dify展示流程执行状态,但用户普遍反馈"看不懂、没耐心等",体验极差。

ChatGPT的中间过程展示:

Dify的中间过程展示:

(2)R1后:统一的"深度思考"交互形态

R1的爆火让行业意识到:用户需要的不是"技术细节展示",而是"感知到Agent在工作"。因此,后续Agent产品纷纷效仿R1的交互模式——将中间思考过程(如ReAct的Thought步骤)组装成"深度思考"文本,逐步输出,既缓解了等待焦虑,又让用户感受到Agent的"智能性"。

比如微信读书的AI问书、微信输入法的问AI功能,都将Agent的工作过程与R1的推理过程融合,以"深度思考"的形式展示,用户接受度极高。这种"大道至简"的交互形态,彻底统一了Agent的产品风格。

媒资助手Agent的"深度思考"展示:

微信读书AI问书的交互展示:

六、下半场:模型即产品与Agent社会化协同

如果说中场战事是"类Agent"模型的崛起,那么OpenAI DeepResearch的问世,标志着AI Agent进入下半场——模型内化的新阶段。Agent不再依赖工程代码实现,而是通过端到端强化学习直接训练成模型,"模型即产品"成为新趋势,而Agent社会化协同则将打开更大的想象空间。

1. 核心趋势:模型即产品,模应一体

OpenAI DeepResearch是首个"真Agent"模型,具备两个核心特征,彻底改变了Agent的开发模式:

  1. 端到端训练:针对"撰写研报"这一特定场景,从接收问题、联网搜索、多轮验证,到最终输出研报的全链路,都纳入训练范围——不再是传统大模型的"单次文本输出",而是完整的"任务执行流程";
  2. 模型即Agent:DeepResearch的工作形态是Agent,但技术上是一个独立模型。在此之前,类似功能需要通过编写代码开发Agent(当前已有很多开源版DeepResearch),工程复杂度高;而DeepResearch通过强化学习,让模型本身掌握了工程侧的工作逻辑,效果更优、复杂度更低。

对比O1和DeepResearch,我们能清晰看到趋势:O1通过强化学习提升"推理能力",DeepResearch通过强化学习掌握"完整任务流程"。这意味着:未来开发Agent,无需再区分模型层、应用层,而是通过强化学习对特定场景训练,直接交付一个Agent模型作为产品——这就是"模型即产品"的核心内涵,也是"模应一体"的未来方向。

OpenAI后续发布的O3模型,进一步验证了这一趋势——O3是比DeepResearch更通用的Agent模型,可适配多种场景,再次明确了Agent模型化、模应一体化的道路。

2. 工程化Agent的生存空间:三者长期共存

很多开发者会担心:如果下半场是端到端Agent模型的天下,那么工程化Agent是否会被淘汰?答案是否定的——至少未来两年内,三种Agent形态会长期共存,适用于不同场景:

  1. 纯工程Agent:通过提示词工程+代码实现,开发门槛低、成本低。适用于产品MVP阶段(快速验证需求)、流量小、对Token成本不敏感的场景。当前流行的可视化Agent搭建平台,甚至支持无代码快速搭建,进一步降低了使用门槛;
  2. SFT Agent:针对Agent的规划、反思等行为进行有监督微调(SFT),核心目的是提升指令跟随稳定性、节省提示词Token成本。适用于大流量但工具需要动态添加的场景——微调带来的指令稳定性提升可能不显著,但节省的Token成本对大流量场景至关重要;
  3. 端到端Agent模型:针对垂直场景通过端到端强化学习训练,效果最优、性能最稳定。适用于大流量、需求明确的垂直场景(如研报撰写、客服对话、代码生成等)。

3. 未来方向:Agent的社会化协同

如果说"模型即产品"是Agent的个体进化,那么"社会化协同"就是Agent的群体进化。以A2A(Agent to Agent)协议为代表的Agent间协同标准,拉开了社会化协同的大幕——它为每个Agent分配唯一"身份证"(AgentCard),通过鉴权、握手后,Agent可跨平台、跨领域沟通协作。

此前的多Agent协作,更像是"小团队内部的紧密配合";而A2A协议将协同范围扩展到全球——我们可以大胆想象未来场景:

  • 每个人都有专属个人Agent,代表自己与其他Agent交互:约朋友聚会时,让个人Agent与朋友的Agent沟通时间、地点、行程,生成最优方案;
  • 智能消费:无需手动打开购票APP,只需告知个人Agent"下周去上海出差,买往返机票",个人Agent会自动发现航空公司、旅行社的Agent,沟通需求、对比价格、完成支付;
  • 行业协作:企业的生产Agent、供应链Agent、销售Agent自动协同,根据市场需求调整生产计划、优化供应链、制定销售策略。

这种"Agent社会化协同",将最大程度复刻人类社会的协作范式。未来,除了模型技术本身,Agent的通讯安全、信用体系、支付系统等"社会基础建设",将成为新的技术蓝海——这需要全行业共同搭建。

七、致开发者:拥抱AI,成为AI领导者

AI正以不可逆转的趋势颠覆全行业,所有从业者都面临工作方式的升级——不是出现全新职业,而是绝大多数职业需要"原地升级+AI"。我们每个人都将从"个人劳动者"转变为"AI领导者",提升AI领导力,将成为核心竞争力。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值