本文探讨了AI智能体的架构选择,分析了Cognition(支持单智能体)与Anthropic(支持多智能体)的立场与实践。单智能体保持上下文连续性,适合时序依赖型"写"类任务;多智能体通过并行化处理复杂"读"类任务。两者共识是:上下文工程是核心,应根据任务特性选择合适架构,配套完善工具链,兼顾经济可行性。未来智能体系统可能融合两者优势,实现更高效的智能协作。
- Cognition是一家专注于AI应用层开发的初创公司,以其推出的全球首个AI程序员“Devin”而闻名。
- Anthropic是由OpenAI前成员创立的AI研究公司,是生成式AI领域的巨头之一,其开发的Claude系列大模型与GPT等齐名。
一、AI智能体的基础定义与分类
在深入争议之前,首先需明确其核心概念:AI智能体是以大语言模型(LLM)为推理引擎,负责主导应用程序控制流程的系统。根据架构设计,主要分为单智能体与多智能体两大类型。
单智能体:专注连贯的独立工作者
单智能体采用单一流程运作模式,如同一位高度专注的工作者,从任务启动到完成全程主导。它保持连续的思维(记忆)和行动(工具使用)链条,确保每一步决策都建立在过往所有信息的基础上。

其核心特征包括:
- 时序性:按顺序执行动作,完成步骤A后再推进至步骤B
- 上下文统一:维护完整的对话历史,新步骤可调用所有过往信息与工具输出
- 状态一致性:早期决策直接且全面地影响后续行动,无需跨主体传递信息
单智能体的优势十分鲜明:上下文连续无损耗,系统简单易调试、易维护,执行路径和决策轨迹清晰可追溯。但短板也同样突出:时序瓶颈导致无法并行处理任务,上下文窗口限制可能引发错误和信息遗忘,token使用存在冗余,且受限于单一模型的能力范围。
多智能体:协同高效的专业团队
多智能体架构类似协作团队,通常由主导智能体将核心目标拆解为子任务,再分配给多个工作智能体并行执行。除了这种协调者-工作者模式,还有无需主导者、通过对等协作完成任务的集群模式,兼具单智能体与多智能体的部分特征。

其核心特征包括:
- 并行执行:多个智能体可同时处理不同子任务
- 任务委派:主导智能体负责拆解目标、分配任务并合成结果
- 上下文分布式:每个智能体仅持有总信息的子集作为自身上下文
多智能体的核心优势在于:并行化探索多条路径以降低延迟,支持智能体专业化分工适配特定任务,能够应对复杂多维度的问题。但挑战也不容忽视:跨智能体上下文共享难度大,协调不当易导致重复劳动或决策冲突,token消耗更高。Anthropic的数据显示,其多智能体系统的token使用量是标准聊天交互的15倍。

二、Cognition的立场:为何反对多智能体架构
Cognition在《不要构建多智能体》中明确表态,认为多智能体架构并非构建可靠AI智能体的理想选择,其核心观点围绕上下文工程展开。
上下文工程:可靠智能体的核心
Cognition将上下文工程视为智能体开发的核心,认为这是超越提示词工程的更高维度实践,它要求在动态系统中自动为智能体提供恰当的信息,是构建可靠AI智能体的首要任务。在2025年的技术阶段,即便最先进的大模型,缺乏完整上下文也无法有效完成任务,而多智能体架构恰恰在上下文管理上存在先天缺陷。
多智能体架构的核心缺陷
Cognition通过“构建Flappy Bird克隆版”的案例揭示多智能体的脆弱性:主导智能体将任务拆分为“构建带绿管和碰撞箱的移动游戏背景”与“构建可上下移动的小鸟”,但两个子智能体可能因误解任务,分别产出超级马里奥风格的背景和不符合要求的小鸟,最终导致整合失败。
这一问题源于两个核心原则的违背:
- 需共享完整上下文轨迹,而非孤立信息。 仅将原始任务传递给子智能体远远不够,多轮对话中的工具调用、决策细节等都可能影响任务理解,而多智能体难以实现完整上下文共享。
- 行动隐含决策,冲突决策导致糟糕结果。 子智能体无法感知彼此的工作进展,容易基于冲突假设行动,例如分别采用迥异的视觉风格,最终导致成果无法兼容。
更优的替代方案
Cognition认为,遵循上述原则的最优解是采用单线程线性智能体,通过连续上下文确保决策一致性。对于超长篇幅任务导致的上下文窗口溢出问题,可引入专门的LLM模型,将行动与对话历史压缩为关键细节、事件和决策,Cognition甚至通过微调小型模型来优化这一压缩过程,以支撑更长时程的任务。
对多智能体未来的谨慎态度
Cognition并非完全否定多智能体的长期潜力,但认为2025年的技术水平尚未解决跨智能体上下文传递的核心难题。****当前多智能体的决策过于分散,上下文共享不充分,导致系统脆弱性高。****其团队判断,这一问题可能随着单线程智能体与人类沟通能力的提升而自然解决,届时才能真正释放多智能体的并行效率。
三、Anthropic的实践:多智能体系统的价值与突破
Anthropic通过打造多智能体研究系统,证明了多智能体架构在特定场景下的独特价值。其研究系统采用协调者-工作者模式,由主导智能体规划研究流程,子智能体并行搜索信息,成功在复杂研究任务中实现性能突破。
多智能体架构的核心优势
Anthropic的实践验证了多智能体在三类场景中的不可替代性:
- 适配开放式研究任务: 复杂研究的步骤难以预先硬编码,需根据中间发现动态调整方向,多智能体的并行探索能力恰好匹配这一需求。
- 实现高效信息压缩: 子智能体通过并行处理各自上下文窗口,同时探索问题的不同维度,再将关键信息汇总给主导智能体,大幅提升信息提炼效率。
- 突破单智能体能力边界: 如同人类社会通过集体智慧实现指数级进步,多智能体能够整合专业化分工的优势,完成单智能体难以覆盖的广度任务。
内部评估显示,以Claude Opus 4为主导智能体、Claude Sonnet 4为子智能体的多智能体系统,在研究类任务中比单智能体Claude Opus 4高出90.2%的性能。例如在识别S&P 500信息技术板块所有公司董事时,多智能体通过任务拆分并行搜索成功完成,而单智能体因顺序处理方式难以覆盖如此大的搜索广度,导致无法找全答案。
此外,多智能体架构能有效提升token使用效率。在BrowseComp评估中,token使用量单独解释了80%的性能差异,多智能体通过分布式上下文窗口,为复杂任务提供了更多推理资源。
工程化挑战与解决方案
Anthropic坦言多智能体面临token消耗高(为标准聊天的15倍)、协调复杂等问题,但通过针对性工程优化实现了规模化应用:
- 精细化提示词工程: 包括教会主导智能体精准委派任务,避免子智能体重复劳动;根据查询复杂度动态调整子智能体数量和工具调用次数;引导智能体采用“先宽后窄”的搜索策略,先探索全局再聚焦细节。
- 优化工具设计与选择: 为智能体提供明确的工具使用启发式规则,例如优先匹配用户意图、偏好专业工具而非通用工具;通过工具测试智能体改写工具描述,将任务完成时间缩短40%。
- 创新评估体系: 结合LLM作为裁判的自动化评估(从事实准确性、引用准确性等维度评分)与人工测试,兼顾评估规模与边缘案例覆盖。
- 保障生产环境可靠性: 通过持久化执行、错误重试与检查点机制应对状态累积型错误;采用全链路追踪简化调试;通过彩虹部署避免更新时中断运行中的智能体。
适用边界与未来方向
Anthropic明确了多智能体的适用场景:高价值、可并行、信息超出自上下文窗口、需对接多个复杂工具的任务。而编码等依赖强上下文一致性、任务关联性高的场景,仍非多智能体的理想选择。
其未来方向聚焦于异步执行优化,当前主导智能体同步等待子智能体完成的模式存在瓶颈,异步化将允许智能体实时协作与动态生成子智能体,但需解决结果协调、状态一致性等新挑战。
四、共识与通用原则:智能体构建的核心准则
尽管立场不同,Cognition与Anthropic在智能体构建的核心原则上高度一致,形成了行业通用的实践指南:
- 上下文工程是重中之重。 无论采用何种架构,动态维护正确时间的正确信息都是智能体可靠决策的关键,这需要超越简单提示词工程的系统性设计。
- “读”与“写”任务的区分比架构选择更重要。 “读”类任务(研究、分析、信息收集)易于并行,更适配多智能体;“写”类任务(代码生成、内容创作、文件编辑)并行化易引发协调问题,更适合单智能体;混合任务应在架构上分离读写阶段。
- 可靠智能体需配套完善工具链。 仅靠优秀模型远远不够,还需耐用执行的基础设施(应对故障)、可观测性工具(方便调试)与科学评估体系(衡量核心指标)。
- 兼顾经济可行性与模型演进。 多智能体的高token消耗要求任务价值与成本匹配;同时模型迭代速度极快,不应过度设计复杂方案,需为未来更简洁的解决方案预留空间。
五、结论
AI智能体的架构选择,本质是任务特性与技术能力的匹配问题。单智能体凭借上下文连续性与可靠性,在时序依赖型“写”类任务中占据优势;多智能体则以并行化与扩展性,成为复杂“读”类研究任务的最优解。
Cognition的警示揭示了多智能体在上下文管理与协调上的固有挑战,提醒行业避免盲目跟风;Anthropic的实践则证明,通过精细化工程设计,多智能体能够在特定场景下实现性能突破。两者的共识更指明了行业方向:无论架构如何选择,上下文工程、任务适配、工具链建设与经济可行性,都是智能体从原型走向生产的核心考量。
随着模型能力的持续提升与工程技术的不断成熟,单智能体与多智能体的边界可能进一步模糊,但“为任务选择合适工具”的核心逻辑将长期不变。未来的智能体系统,或许会是融合两者优势的混合架构,在不同任务阶段动态切换模式,最终实现更高效、更可靠的智能协作。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

981

被折叠的 条评论
为什么被折叠?



