AI智能体架构演进:从Agent 1.0到Agent 2.0,深度智能体如何征服复杂任务?!

当我们谈论 AI Agent 时,大多数开发者想到的是一个简单的工具调用循环:LLM 生成工具调用,执行工具,将结果返回给 LLM,继续下一轮。这种浅层架构在处理简单任务时表现良好,但面对复杂的多步骤工作流时,就会暴露出致命缺陷:无法有效规划、上下文管理混乱、缺乏质量审查机制。尽管有类似与Langgraph这样的工作流框架,能够免去开发者在编排workflow上面的耗时,但是Agent的核心能力,比如节点和工具,仍需要自行实现。

LangChain 团队研究了Claude CodeOpenAI Deep ResearchManus等真正在生产环境中解决复杂问题的系统,提炼出了四个关键的特征:

    1. 详细的系统提示词:包含工具使用指南和少样本示例的长提示。
    1. 规划工具:如Claude Code的Todo List,用于任务分解和进度追踪。
    1. 子智能体委托:将复杂任务拆分给专注的子智能体处理。
    1. 文件系统访问:作为共享工作空间和长期记忆的载体。

DeepAgent正是将这些特征进行抽象后,系统化、框架化的产物,它不是简单的工具调用循环,而是一个完整的Agent Harness,即智能体工具套件。

在这里插入图片描述

DeepAgent核心架构

核心架构

什么是 Agent Harness

DeepAgent将自己定位为Agent Harness,它本质上仍是工具调用循环,但集成了让智能体深度思考的核心能力。与传统框架不同,DeepAgent通过内置工具和能力,让开发者专注于业务逻辑,而非基础设施搭建。

模块化的中间件

DeepAgent采用可组合的中间件架构,每个中间件负责一个独立的能力域。

在这里插入图片描述

内置的中间件

from deepagents import create_deep_agentfrom deepagents.middleware importTodoListMiddleware,FilesystemMiddleware,SubAgentMiddleware# 默认情况下,create_deep_agent 会自动附加三大核心中间件agent = create_deep_agent(    model="claude-sonnet-4-5-20250929",# 以下中间件会自动启用:# - TodoListMiddleware: 提供 write_todos 规划工具# - FilesystemMiddleware: 提供 6 个文件系统工具# - SubAgentMiddleware: 提供 task 工具用于子智能体委托)

这种设计的优势在于可组合性,让开发者可以根据需求选择启用特定中间件,或添加自定义中间件扩展能力。

文件系统

六大文件系统工具

DeepAgent提供了完整的文件系统操作能力,这是其区别于浅层 Agent 的关键特性:

工具功能用途
ls列出文件及元数据,包括大小和修改时间等探索目录结构
read_file读取文件内容,支持行号和分页分块读取大文件
write_file创建新文件保存中间结果
edit_file精确字符串替换更新已有文件
glob模式匹配查找文件批量查找文件
grep搜索文件内容代码搜索,内容定位

自动压缩机制

当工具返回结果超出token阈值时,DeepAgent会自动将其转储到文件系统,防止上下文窗口饱和:

# 伪代码示例:自动驱逐逻辑def handle_tool_result(result, threshold=2000):    if count_tokens(result) > threshold:        file_path = f"/temp/tool_result_{uuid4()}.txt"        write_file(file_path, result)        return f"Large result saved to {file_path}. Use read_file to access."    return result

这确保了即使调用返回海量数据的工具(如Web 搜索、数据库查询等),智能体也能通过文件系统分块读取,而不会导致上下文崩溃。

灵活的持久化策略

BackendProtocol 协议设计

DeepAgent将文件系统操作抽象为BackendProtocol协议,支持多种存储策略:

from deepagents.backends importStateBackend,FilesystemBackend,StoreBackend,CompositeBackend# 1. StateBackend:短期内存(默认)agent = create_deep_agent()# 文件存储在 LangGraph State 中# 2. FilesystemBackend:本地磁盘持久化agent = create_deep_agent(    backend=FilesystemBackend(root_dir="/Users/agent/workspace", virtual_mode=True))# 3. StoreBackend:跨线程持久化(LangGraph Store)from langgraph.store.memory importInMemoryStoreagent = create_deep_agent(    backend=lambda rt:StoreBackend(rt),    store=InMemoryStore())# 4. CompositeBackend:混合存储路由composite =lambda rt:CompositeBackend(    default=StateBackend(rt),# 临时文件用 State    routes={        "/memories/":StoreBackend(rt),# 长期记忆持久化        "/workspace/":FilesystemBackend(root_dir="/real/path")# 工作文件映射到磁盘    })agent = create_deep_agent(backend=composite, store=InMemoryStore())

路由策略示例

使用CompositeBackend时,不同路径前缀的文件会路由到不同的后端:

  • /workspace/plan.md → StateBackend(短期)
  • /memories/agent_context.txt → StoreBackend(跨会话持久化)
  • /docs/api_spec.yaml → FilesystemBackend(真实文件系统)

这种设计让智能体能够同时管理临时草稿和长期知识库。

子智能体机制

为什么需要子智能体

子智能体解决了上下文膨胀问题,实现任务委托与上下文隔离。当智能体使用大输出工具(如多次 Web 搜索)时,主智能体的上下文会迅速填满中间结果。子智能体通过隔离详细工作,让主智能体只接收最终结果,而非生成该结果的几十次工具调用。

两种定义方式

    1. 字典配置
research_subagent = {"name":"research-agent","description":"用于深度研究复杂问题","system_prompt":"你是一个专业的研究助手,擅长多步骤信息收集和综合","tools":[internet_search, summarize],"model":"openai:gpt-4o",# 可选:覆盖主智能体模型"interrupt_on":{"internet_search":True}# 可选:HITL 配置}agent = create_deep_agent(    model="claude-sonnet-4-5-20250929",    subagents=[research_subagent])
    1. 编译图

对于复杂工作流,可以使用预构建的LangGraph图:

from deepagents importCompiledSubAgentfrom langgraph.graph importStateGraph# 创建自定义图defcreate_analysis_graph():    workflow =StateGraph(...)# ... 构建复杂的分析流程return workflow.compile()analysis_subagent =CompiledSubAgent(    name="data-analyzer",    description="执行多步骤数据分析任务",    runnable=create_analysis_graph())agent = create_deep_agent(subagents=[analysis_subagent])

默认子智能体

除了用户定义的子智能体,DeepAgent始终提供一个general-purpose子智能体:

  • • 与主智能体相同的系统提示词和工具
  • • 主要用途:上下文隔离(而非专业化)
  • • 使用场景:主智能体可以将复杂任务委托给它,获得简洁结果而不受中间过程污染
# 主智能体可以这样使用:# "请使用 general-purpose 子智能体分析这 100 个文件,返回摘要"# 子智能体完成工作后,主智能体只收到摘要,而非 100 次文件读取的详细内容

生产级特性

针对生产环境,DeepAgent还提供了许多有用的特性。

  1. 对话历史自动摘要

当 token 使用量过高时,DeepAgent会自动压缩旧对话历史:

agent = create_deep_agent(    model="claude-sonnet-4-5-20250929",    # 配置摘要触发阈值和目标长度)
  1. 工具调用自动修复

当工具调用被中断或取消时,DeepAgent会自动修复消息历史:

问题场景:用户在工具执行过程中取消操作,导致tool_call消息没有对应的tool_result,破坏了消息序列的完整性。

解决方案DeepAgent会自动注入占位符ToolMessage,确保消息历史的连贯性,避免 LLM 在后续轮次中因不完整的上下文而产生困惑。

  1. Prompt缓存机制

对于使用Anthropic模型的智能体,DeepAgent启用了prompt caching功能:

  • • 自动标记可缓存的提示词部分(如系统提示词、工具定义)
  • • 减少重复 token 处理,显著降低成本和延迟
  • • 对于长系统提示词的深度智能体尤其有价值
  1. Human-in-the-Loop

DeepAgent支持在特定工具调用时暂停执行,等待人工审批:

from langgraph.checkpoint.memory importMemorySaveragent = create_deep_agent(    model="claude-sonnet-4-5-20250929",    tools=[delete_file, send_email, read_file],    interrupt_on={        "delete_file":True,# 需要审批(approve/edit/reject)        "send_email":{"allowed_decisions":["approve","reject"]},# 只能批准或拒绝        "read_file":False# 无需审批    },    checkpointer=MemorySaver()# HITL 必须使用 checkpointer)# 使用示例config ={"configurable":{"thread_id":"session-123"}}result = agent.invoke({"messages":[...]}, config=config)if result.get("__interrupt__"):    # 处理中断,展示待审批操作    interrupts = result["__interrupt__"][0].value    action_requests = interrupts["action_requests"]    # 用户决策    decisions =[{"type":"approve"}]# 或 "edit"、"reject"    # 恢复执行    result = agent.invoke(        Command(resume={"decisions": decisions}),        config=config  # 必须使用相同的 config    )

DeepAgent实现了从浅层Agent到深度Agent的范式转变,其核心价值在于将复杂任务自动化系统所需的核心能力封装为可组合、生产就绪的模块化中间件

有了这些生产特性,无论是在构建研究助手、代码生成工具、数据分析平台还是智能客服系统,DeepAgent的设计模式都值得深入学习和应用。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习和面试资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
在这里插入图片描述

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员辣条

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值