通义甩出王炸!通义DeepResearch:首个媲美OpenAI的开源网络智能体

前言

通义DeepResearch:开启开源 AI 研究智能体的新纪元

从聊天机器人到自主智能体

最近,阿里团队推出了 **通义深度研究 (Tongyi DeepResearch)**,这是首个完全开源的网络智能体 (Web Agent),在一系列基准测试中,它的表现足以和 OpenAI 的同类研究智能体相媲美。

通义深度研究展现了当前最顶尖的水平,具体来看:

  • 在学术推理任务 HLE (Humanity’s Last Exam) 中得分 32.9
  • 在极其复杂的信息检索任务 BrowseComp 中得分 43.4
  • 在中文信息检索任务 BrowseComp-ZH 中得分 46.7
  • 在以用户为中心的 xbench-DeepSearch 基准测试中得分 75

这些成绩全面超越了市面上所有现有的闭源和开源同类研究智能体。

除了模型本身,该项目还分享了一套完整且经过实战检验的方法论,揭示了如何打造这样一个先进的智能体。其核心贡献在于一套新颖的数据合成方案,这套方案贯穿了整个训练流程——从用于冷启动的智能体持续预训练 (Agentic CPT)监督微调 (SFT),一直到最后的强化学习 (RL) 阶段。

特别是在强化学习方面,团队提供了一套全栈解决方案,涵盖了算法创新、自动化数据整理和强大的基础设施。而在推理层面,通用的 ReAct 框架展示了模型无需任何提示工程就具备的强大内在能力;而先进的“重度模式” (Heavy Mode) 则进一步挖掘了其复杂推理和规划能力的上限。

全合成数据驱动:从持续预训练到后训练

持续预训练数据

为了给后续的训练流程打下一个坚实的智能体基础模型,团队首次将智能体持续预训练 (Agentic CPT) 的概念引入研究型智能体的训练中。为此,他们提出了 AgentFounder,一个系统化、可扩展的大规模数据合成方案,它通过整个后训练流程的数据,创造了一个数据飞轮。

1. 数据重组与问题构建这个方案会持续从各种来源收集数据,包括文档、公开网页数据、知识图谱,以及历史轨迹和工具调用记录(比如带链接的搜索结果)。如下图所示,这些五花八门的数据源被重构成以实体为核心的开放世界知识记忆库。然后,基于随机采样的实体及其相关知识,生成各种风格的(问题,答案)对。

轨迹合成流程

2. 动作合成基于多样化的问题和历史轨迹,团队构建了两种动作合成数据:一阶动作和高阶动作。这种方法能够在离线环境中大规模、全面地探索潜在的推理-行动空间,从而避免了对商业工具 API 的额外调用。特别是在高阶动作合成中,轨迹被重塑为多步决策过程,以此来增强模型的决策能力。

后训练数据

高质量的合成问答对

为了突破 AI 智能体的性能极限,团队开发了一套端到端的全自动化数据合成解决方案。这个过程无需任何人工干预,就能构建出超高质量的数据集。这套方法经过了长期的探索和迭代——从早期通过逆向工程从点击流生成问答对(WebWalker),到更系统的基于图谱的合成方法(WebSailor),再到形式化的任务建模(WebShaper),最终确保了卓越的数据质量和大规模的可扩展性。

为了解决那些复杂且不确定性高的问题,团队通过一个新颖的流程来合成基于网络的问答数据。

  1. 首先,通过随机游走和同构表构建,从真实网站数据中建立高度互联的知识图谱,确保了信息的真实结构。
  2. 然后,对子图和子表进行采样,生成初始的问题和答案。
  3. 最关键的一步,是通过巧妙地模糊或混淆问题中的信息来刻意增加难度。这种方法背后有完整的理论框架支撑,将问答难度形式化建模为实体关系上的一系列可控“原子操作”(例如,合并属性相似的实体),从而能够系统地提升问题的复杂度。

此外,为了进一步减少结构化信息与问答推理结构之间的差异,实现更可控的难度扩展,团队基于集合论对信息检索问题进行了形式化建模。通过这种形式化,开发出的智能体能够以受控的方式扩展问题,最大限度地减少推理捷径和结构冗余,进一步提高了问答质量。同时,这种形式化建模也让问答正确性的验证变得高效,解决了后训练中合成数据验证的难题。

不仅如此,团队还开发了一个自动化数据引擎,用于生成博士级别的研究问题。这个引擎首先建立一个多学科知识库,生成需要跨来源推理的“种子”问答对。然后,每个种子都会进入一个自引导的“迭代式复杂性提升”循环。在这个循环中,一个问题构建智能体配备了网络搜索、学术检索和 Python 执行环境等强大工具。在每次迭代中,智能体不断扩展知识边界、深化概念抽象,甚至构建计算任务,形成一个良性循环:上一轮的输出成为下一轮更复杂的输入,确保了任务难度可控且系统性地升级。

通过 SFT 冷启动提升智能体能力

为了提升模型的初始能力,团队基于 ReAct 和新提出的 IterResearch 框架(下文会详述),通过拒绝采样构建了一批 SFT 轨迹数据。

  • 一方面,ReAct 作为经典的多轮推理格式,为模型注入了丰富的推理行为,并强化了其遵循结构化格式的能力。
  • 另一方面,团队引入了 IterResearch,这是一种创新的智能体范式。它通过在每一轮动态重建一个精简的工作空间,来释放模型的全部推理潜力,确保每个决策都经过深思熟虑。利用 IterResearch,团队构建了一批融合了推理、规划和工具使用的轨迹,从而增强了模型在面对复杂任务时持续规划的能力。

推理模式

在研究智能体的推理范式上,团队进行了广泛的探索。最终的模型支持多种推理格式,包括原生的 ReAct 模式和带上下文管理的“重度模式”。

原生 ReAct 模式

这个模型在原生的 ReAct 推理模式下,无需任何提示工程(Prompt Engineering)就能展现出卓越的性能。它严格遵循“思考-行动-观察”的循环,通过多次迭代来解决问题。得益于 128K 的模型上下文长度,它可以处理大量的交互轮次,充分发挥与环境扩展交互的潜力。ReAct 的简洁和通用性,最清晰地证明了模型内在的能力和训练流程的有效性。

选择 ReAct 在很大程度上是受到了 AI 领域的“惨痛教训” (The Bitter Lesson) 理论的启发,该理论认为,利用可扩展计算的通用方法,最终将超越那些依赖复杂、人为设计的知识和精巧设计的方法。

重度模式 (Heavy Mode)

除了原生的 ReAct 模式,团队还开发了专为复杂、多步研究任务设计的“重度模式” (Heavy Mode)。该模式基于新的 IterResearch 范式构建,旨在将智能体的能力推向极限。

IterResearch 范式的提出是为了解决一个痛点:当智能体把所有信息都堆积在一个不断膨胀的上下文中时,容易出现“认知窒息”和“噪音污染”。而 IterResearch 则将任务分解为一系列的“研究回合”。

IterResearch 范式

在每个回合中,智能体只利用上一回合最核心的结果来重建一个精简的工作空间。在这个专注的工作空间里,智能体分析问题,将关键发现整合到一份持续更新的中心报告中,然后决定下一步行动——是收集更多信息,还是给出最终答案。这种“合成与重建”的迭代过程,让智能体在漫长的任务中也能保持清晰的“认知焦点”和高质量的推理。

在此基础上,团队还提出了“研究-合成”框架。在该模型中,多个研究智能体利用 IterResearch 过程并行探索问题。最后,一个合成智能体负责整合它们提炼出的报告和结论,从而产生一个更全面的最终答案。这种并行结构让模型能在有限的上下文窗口内探索更广泛的研究路径,将其性能推向极限。

端到端的智能体训练流程

训练流程图

为了训练出这样的智能体模型,整个模型训练流程都需要被重新思考,从预训练、微调到强化学习。团队为智能体模型训练建立了一种新范式,将 智能体 CPT智能体 SFT智能体 RL 连接起来,为 AI 智能体创建了一个无缝的端到端训练闭环。下面重点介绍最后阶段——强化学习是如何实现的,这对校准智能体的行为至关重要。

在线智能体强化学习 (RL)

用强化学习来构建高质量的智能体,是一项复杂的系统工程挑战。如果把整个开发过程看作一个“强化学习”循环,那么任何一个环节的不稳定或不健壮,都可能导致错误的“奖励”信号。以下是团队在强化学习方面的实践经验,涵盖算法和基础设施两个方面。

在强化学习算法方面,团队取得了多项突破,采用了一种定制的在线 (on-policy) 组相对策略优化 (Group Relative Policy Optimization, GRPO) 算法。

  • 首先,采用严格的在线训练方案,确保学习信号始终与模型当前的能力相关。
  • 其次,为了进一步减少优势估计的方差,采用了留一法 (leave-one-out) 策略。
  • 此外,对负样本采取保守策略,因为未经筛选的负样本轨迹会显著降低训练稳定性,甚至在长时间训练后导致“格式崩溃”。为此,团队会选择性地将某些负样本排除在损失计算之外(例如,那些因超长而未能产生最终答案的样本)。

从训练动态来看,学习是有效的,奖励呈现持续上升趋势。同时,策略熵保持在较高水平,表明模型在持续探索,避免了过早收敛。

一个有趣的发现是,算法虽然重要,但可能不是智能体强化学习成功的唯一决定因素。数据和训练环境的稳定性,可能才是决定强化学习成败的关键。团队曾尝试直接在 BrowseComp 测试集上训练模型,但效果远不如使用合成数据。推测原因在于,合成数据提供了一个更一致的分布,让模型能更有效地学习和泛化。相比之下,人工标注的数据(如 BrowseComp)本身就更嘈杂,且规模有限,难以形成一个可学习的潜在分布。

基础设施方面,训练一个带工具的智能体需要一个高度稳定和高效的环境:

  • 模拟训练环境: 依赖实时网络 API 进行开发成本高、速度慢且不稳定。团队通过创建一个使用离线维基百科数据库和定制工具套件的模拟训练环境来解决这个问题。这个平台经济高效、快速可控,极大地加速了研究和迭代。
  • 稳定高效的工具沙箱: 为了确保工具使用的可靠性,团队开发了一个统一的沙箱。该沙箱通过缓存结果、重试失败调用以及使用备用 API 等方式来优雅地处理并发和故障,为智能体提供了快速和确定性的体验。
  • 自动化数据整理: 数据是模型能力提升的核心驱动力。为了应对这一挑战,团队通过训练的动态过程来实时优化数据。一个完全自动化的数据合成和过滤管道会动态调整训练集,通过打通数据生成与模型训练的闭环,不仅确保了训练稳定性,也带来了显著的性能提升。
  • 在线异步框架: 基于 rLLM,团队实现了一个定制的步级异步强化学习训练循环。多个智能体实例并行地与环境交互,每个实例都生成轨迹。

通过这些措施,整个智能体训练流程形成了一个“闭环”。从一个原始模型开始,通过 CPT 预训练初始化工具使用技能,然后用专家级数据进行 SFT 冷启动,最后进行在线强化学习,让模型自我演进。这种全栈方法为训练能够在动态环境中稳健解决复杂任务的 AI 智能体,提出了一种新的范式。

实际应用与影响

通义深度研究不仅仅是一个技术展示,它已经在阿里内外的实际应用中发挥价值:

  • 高德地图伴侣(小高): 团队与高德合作,共同开发了 AI 副驾“小高”。它能利用高德应用的丰富工具集,执行复杂的旅行规划指令,比如创建一个包含特定景点和宠物友好酒店的多日自驾游路线。通过多步推理,小高能自主研究并整合信息,生成详细的个性化行程。

  • 通义法睿(法律研究智能体): 在深度研究架构的赋能下,法睿成为了一个真正的法律智能体。它能自主执行复杂的多步研究任务,模拟初级法律助理的工作流程——系统性地检索判例法、交叉引用法规并综合分析。更重要的是,所有结论都基于可验证的司法来源,并附有精确的判例和法规引用,确保了专业级的准确性和可信度。

通义法睿

局限性

未来的工作将主要解决三个关键局限性:

  1. 上下文长度: 当前 128K 的上下文长度对于最复杂的长程任务仍然不够,需要探索扩展上下文窗口和更复杂的信息管理技术。
  2. 模型规模: 当前的训练流程在远超 30B 规模的 MoE 基础模型上的可扩展性尚未得到验证。
  3. RL 效率: 计划通过研究部分推演等技术来提高强化学习框架的效率,这将需要解决离线策略训练带来的分布偏移等挑战。

最后

为什么要学AI大模型

当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!

DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

在这里插入图片描述

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
在这里插入图片描述
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值