01 前言
LangChain和LangGraph在 2025 年10 月迎来V1.0 正式版(截至目前已更新至V1.1.0),这次升级极大提升了构建 AI Agent 的灵活性、扩展性与兼容性。
-
LangChain:
为构建基于大型语言模型的应用提供可复用组件与集成方案。
-
LangGraph:
智能体编排框架,以图结构构建大型语言模型智能体应用。
LangChain 中的智能体功能正是构建于 LangGraph 之上,以实现持久化执行、流式响应、人机协同、状态持久化等能力。但是使用LangChain构建智能体不必先了解LangGraph框架,LangGraph提供的是更底层的编排能力和运行时。
LangChain (121k star):https://github.com/langchain-ai/langchain
LangGraph (21.9k star):
https://github.com/langchain-ai/langgraph
02 概览
V1.0版本的LangChain主要带来了3大方面的升级:
- 标准构建Agent的方式,使用新版本定义的langchain.agent包的create_agent,支持如下**:**
- 插件式的中间件(Middleware),可以在Agent执行的任何步骤调整逻辑。
- 构建于LangGraph之上,可以借助LangGraph实现长任务、持久化、人类交互等。
- 结构化输出内容。
- 使用content_blocks 标准化消息内容表示格式。不同的模型使用相同的API获取消息内容,并提供安全的类型检查等。
- 简化引入包的命名空间(namespace),非核心的包统一使用langchain-classic。
V1.0版本的LangGraph核心是配合LangChain并进一步提升了稳定性。废弃了LangGraph的create_react_agent,取而代之的是LangChain的create_agent方法,其是构建于LangGraph之上的。
03 新功能介绍
这里简单介绍新版的两大功能点,一个是create_agent,另一个是Middleware。
create_agent
create_agent定义了一个标准的Agent机制:调用模型,模型决策是否使用并调用工具,将工具结果返回模型进一步决策直到结束,模型就像Agent的“大脑”一样。

# pip3 install -U langchain
from langchain.agents import create_agent
from langchain.chat_models import init_chat_model
import os
# pip3 install -U langchain
from langchain.agents import create_agent
from langchain.chat_models import init_chat_model
import os
# 模型
os.environ["DEEPSEEK_API_KEY"] = "sk-..."
llm = init_chat_model(
model="deepseek-chat",
temperature=0
)
# 创建agent
agent = create_agent(
model=llm,
system_prompt="You are a helpful assistant."
)
result = agent.invoke({
"messages": [
{"role": "user", "content": "what can you do?"}
]
})
print(result)
# 模型
os.environ["DEEPSEEK_API_KEY"] = "sk-7fd10806e7ad4375aa02b69612a8410d"
llm = init_chat_model(
model="deepseek-chat",
temperature=0
)
# 创建agent
agent = create_agent(
model=llm,
system_prompt="You are a helpful assistant."
)
result = agent.invoke({
"messages": [
{"role": "user", "content": "what can you do?"}
]
})
print(result)
如上是一个简单的示例,先定义模型和agent,调用invoke传入用户问题,最后打印模型响应。
# 响应,截取了模型回复内容
{'messages':
[HumanMessage(content='what can you do?', additional_kwargs={}, response_metadata={}, id='77bd3633-ebf4-46ae-8e2d-88f76279e20a'),
AIMessage(content="I can assist you ......", additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 472, 'prompt_tokens': 15, 'total_tokens': 487, 'completion_tokens_details': None, 'prompt_tokens_details': {'audio_tokens': None, 'cached_tokens': 0}, 'prompt_cache_hit_tokens': 0, 'prompt_cache_miss_tokens': 15}, 'model_provider': 'deepseek', 'model_name': 'deepseek-chat', 'system_fingerprint': 'fp_eaab8d114b_prod0820_fp8_kvcache', 'id': 'a3cb733c-5b25-45f4-acbe-86f7150c90fa', 'finish_reason': 'stop', 'logprobs': None}, id='lc_run--019b0dd8-5eaa-7070-b8b7-96b51c19a6ed-0', usage_metadata={'input_tokens': 15, 'output_tokens': 472, 'total_tokens': 487, 'input_token_details': {'cache_read': 0}, 'output_token_details': {}})
]}
中间件(Middleware)
中间件(Middleware)在使用create_agent时传入,功能类似于Java语言的SPI(Service Provider Interface)。
在构建Agent时,Middleware为AI智能体(Agent)的执行流程提供了一组可插拔、可组合的钩子函数,可以帮助我们动态控制提示词、总结会话、选择工具调用、管理状态以及安全防护。
LangChain中包括了两类Middleware,一类是内建,另一类则是自定义。
1、内建
已经内建了一些常用的,例如:
SummarizationMiddleware: 会话太长时进行总结。
HumanInTheLoopMiddleware: 敏感工具执行时进行人类授权。
2、自定义
支持在Agent执行的每一步进行定义,如下图所示:


from langchain.agents.middleware import before_model, AgentState
from langchain.messages import AIMessage
from langgraph.runtime import Runtime
from typing import Any
@before_model(can_jump_to=["end"])
def check_message_limit(state: AgentState, runtime: Runtime) -> dict[str, Any] | None:
iflen(state["messages"]) >= 50:
return {
"messages": [AIMessage("Conversation limit reached.")],
"jump_to": "end"
}
return None
agent = create_agent(
model=llm,
middleware=[check_message_limit],
如上示例通过**@before_model**指定了在模型调用之前进行拦截,当消息超过50条时,直接返回达到模型限制。这是一种使用方式,也可以通过定义类并继承AgentMiddleware的方式实现Middleware的创建,并在create_agent时传入实例化对象。
04 总结
在 LangChain 的新版本中,Agent 的构建流程得到显著简化,同时功能进一步增强。其中 Middleware 机制的引入,大大提升了流程的可控性与扩展性。尤其对依赖上下文管理的 LLM 应用而言,现在可以更便捷地实现状态的追踪与动态更新。
结合 LangGraph 在编排与运行时方面的优势,推荐使用该框架来构建高效、可靠的智能体。
如何学习AI大模型 ?
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓
优快云粉丝独家福利
这份完整版的 AI 大模型学习资料已经上传优快云,朋友们如果需要可以扫描下方二维码&点击下方优快云官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉优快云大礼包:《最新AI大模型学习资源包》免费分享 👈👈
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
👉1.大模型入门学习思维导图👈
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)

👉2.AGI大模型配套视频👈
很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。


👉3.大模型实际应用报告合集👈
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

👉4.大模型实战项目&项目源码👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战项目来学习。(全套教程文末领取哈)

👉5.大模型经典学习电子书👈
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)

👉6.大模型面试题&答案👈
截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)

为什么分享这些资料?
只要你是真心想学AI大模型,我这份资料就可以无偿分享给你学习,我国在这方面的相关人才比较紧缺,大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!
这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


优快云粉丝独家福利
这份完整版的 AI 大模型学习资料已经上传优快云,朋友们如果需要可以扫描下方二维码&点击下方优快云官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉优快云大礼包:《最新AI大模型学习资源包》免费分享 👈👈
538

被折叠的 条评论
为什么被折叠?



