LangChain已发展为全面的智能体开发框架,提供从研发到部署的完整解决方案。核心组件包括Chains、Agents等,通过LangSmith实现调试追踪,LangGraph处理复杂控制流。涵盖Runnable接口、LCEL表达式语言、无状态与有状态系统区分,以及应用案例如聊天机器人和RAG系统。丰富的第三方工具集成使开发者能高效构建大模型应用。
LangChain 在初期被人吐槽抽象复杂、API难用。现在已经逐渐成熟,发展成了一套从研发、调试到部署的很全面的框架,是入门智能体开发的好帮手。本文将会介绍:(1) LangChain 生态中各个框架的功能。(2)LangChain 系列框架的基本概念 (3)三个典型应用案例
发展历史

langchain architecture
从API到应用:LangChain
2022年底,GPT-3.5 的发布引起了开发基于 LLM 应用的热潮,但是开发者们发现,直接调用 LLM 的 API 只是第一步,要构建一个真正有用的应用,需要大量的“胶水代码”来处理:
- 管理和优化 Prompts。
- 将一个复杂的任务分解成多个 LLM 调用。
- 连接 LLM 到外部数据源(如文档、数据库)。
- 让 LLM 能够使用外部工具(如计算器、搜索引擎)。
LangChain提供了一套标准化的、易于使用的抽象组件,如 Chains、Agents、Indexes 和 Memory,极大地简化了上述“胶水代码”的编写。
Debug提效:LangSmith
随着开发者构建的应用越来越复杂,一个巨大的痛点浮现出来:调试。一个 Agent 的执行过程可能包含数十次 LLM 调用、工具使用和数据检索。当输出结果不符合预期时,开发者很难弄清楚到底是哪一步出了问题。Agent 的内部运作就像一个“黑盒”。
为了解决这个问题,LangChain 团队推出了 LangSmith。LangSmith 能够:
- 可视化追踪 (Tracing):将 Agent 的每一步执行都清晰地展示出来,包括完整的输入/输出、Token 消耗和延迟。
- 评估 (Evaluation):帮助开发者创建数据集,并测试他们的应用在这些数据集上的表现,以确保代码变更没有导致性能下降。
- 监控与调试 (Monitoring & Debugging):在生产环境中监控应用的运行情况,并快速定位问题。
控制流升级:LangGraph
标准的 LangChain Agent(如 ReAct 框架)本质上是一个简单的循环:思考 -> 行动 -> 观察 -> 思考…。这种线性或简单的循环结构在处理需要更复杂逻辑的任务时显得力不从心,例如:
- 需要多个智能体协作,互相传递任务。
- 需要在流程中加入“人类审批”环节 (Human-in-the-loop)。
- 需要根据不同情况执行不同的分支逻辑,甚至包含循环。
为了解决这个控制流(Control Flow)的限制,LangChain 团队推出了 LangGraph。它没有使用 Chain 的概念,而是将应用构建为状态图(State Graph):
- 状态 (State):代表每一个时刻系统的运行状态。
- 节点 (Nodes):代表一个计算步骤(如调用 LLM 或工具)。
- 边 (Edges):代表从一个节点到另一个节点的逻辑流。 通过这种方式,开发者可以明确地定义任何复杂的流程,包括循环、分支和多智能体协作。
从研发到部署
LangGraph已经基本可以支持我们开发出来所有想要的功能了,现在只差最后一步,部署中可能遇到的问题:
- 这些应用是有状态和长时运行的,传统的无状态 Serverless 架构不适用。
- 如何处理任务的持久化,确保服务器重启后任务能从中断处恢复?(即 Durable Execution)
- 如何在高并发下进行扩展?
- 如何为团队提供协作和管理这些复杂智能体的平台?
LangGraph Platform 提供以下功能:
- 全托管部署: 一键将 LangGraph 应用部署到云端。
- 持久化执行: 内置的检查点机制,自动保存每一步的状态,实现容错和恢复。
- 可扩展的基础设施: 专为有状态智能体优化的任务队列和内存管理。
- 协作工具: 如 LangGraph Studio,用于可视化构建和调试。
第三方工具支持
最后LangChain生态作为一个智能体开发平台,开发者们需要调用各种工具,例如不同的 LLM API 供应商、数据库等来实现自己的功能。Integration部分现在已经提供了几十家工具的集成。
https://python.langchain.ac.cn/docs/integrations/providers/all/
基本概念
Runnable和LCEL
Runnable是 LangChain 的核心类,LLM API、工具调用、数据库/向量库查询、输出解析功能全部都是 Runnable 。以上每一种功能抽象的来看,都可以看成给 Runnable 喂一些输入,进行一些运算以后返回结果。
运算有三种模式,单个执行(invoke)、批量执行(batch)、流式执行(stream)。三种模式还有异步版本,分别是ainvoke、abatch和astream。
LCEL (LangChain Expression Language) 让我们可以很方便的将多个 Runnable 组合成一个完整的处理流程。
chain = prompt | model | StrOutputParser()
组合出来的chain也可以直接进行invoke、batch、stream操作。这样我们就可以把更多精力放在每一个 Runnable 积木怎么实现,靠LCEL可以让搭建一个流程像拼乐高一样愉快。
无状态 vs 有状态
假设我们定一个好一个 chain 以后,不论对 chain 输入什么内容都不会对它本身产生影响,也不需要把某些信息保存下来未来用,那么我们的系统是无状态的。
相对的,如果我们需要把历史对话或者运行过程中的结果保存下来,并且未来会用到,这种系统是有状态的。
Workflow vs Agent
做一个“工作流”听起来不如做一个“智能体”高级,为了明确我们要做的功能是什么,从而选择合适的工具,我们自己心里要清楚自己做的是什么。因为三种模式对于 LLM 智能的依赖和调试好的难度都逐级提高。
- LLM 作为工作流的一个节点。
- LLM 在预设好的工作流中运行。
- LLM 在运行中动态决定工作流程。
https://langchain-ai.github.io/langgraph/tutorials/workflows/ 这里给出了几种典型模式的参考实现
应用举例
有了上面的知识作为基础,下面再来看一些用 LangChain 生态都可以实现的典型应用。当我们自己有想要做的应用,可以找到类似的代码作为起点,节省时间。LangChain 官方文档提供了几个经典类型的案例。
聊天机器人
使用 LangGraph 的 MemorySaver,可以实现一个带记忆的聊天机器人。对话历史可以持久化到内存或者数据库,还可以用 thread_id 来区分不同的用户。
代码和讲解链接 https://python.langchain.ac.cn/docs/tutorials/chatbot/
RAG问答
这个案例是用 WebBaseLoader 加载一个网页的内容,使用 RecursiveCharacterTextSplitter 切分,用 OpenAIEmbeddings 模型向量化,保存到内存向量库 InMemoryVectorStore。
https://python.langchain.ac.cn/docs/tutorials/rag/
上面这个案例是个典型的 workflow, 如果像做成agent可以参考这个案例实现react智能体。
https://python.langchain.ac.cn/docs/tutorials/qa_chat_history/#agents
添加人类干预 (human-in-the-loop)
这个例子展示了结合Agent Chat UI,一个带界面的对话机器人,使用 interrupt() 中断,等待人类输入后继续执行。
interrupt
https://github.langchain.ac.cn/langgraph/agents/ui/#run-agent-in-ui
相信大家从上面的内容已经可以感受到LangChain和LangGraph的强大了,https://github.com/langchain-ai/langchain-academy这个仓库是官方提供了很多notebook,帮助大家结合代码理解从langchain基本概念到langgraph的使用。
如果自己想做个智能体,仍然不知道怎么下手,欢迎私信跟我聊聊。
如何学习AI大模型 ?
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓
优快云粉丝独家福利
这份完整版的 AI 大模型学习资料已经上传优快云,朋友们如果需要可以扫描下方二维码&点击下方优快云官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉优快云大礼包:《最新AI大模型学习资源包》免费分享 👈👈
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
👉1.大模型入门学习思维导图👈
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)

👉2.AGI大模型配套视频👈
很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。


👉3.大模型实际应用报告合集👈
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

👉4.大模型实战项目&项目源码👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战项目来学习。(全套教程文末领取哈)

👉5.大模型经典学习电子书👈
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)

👉6.大模型面试题&答案👈
截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)

为什么分享这些资料?
只要你是真心想学AI大模型,我这份资料就可以无偿分享给你学习,我国在这方面的相关人才比较紧缺,大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!
这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


优快云粉丝独家福利
这份完整版的 AI 大模型学习资料已经上传优快云,朋友们如果需要可以扫描下方二维码&点击下方优快云官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉优快云大礼包:《最新AI大模型学习资源包》免费分享 👈👈
868

被折叠的 条评论
为什么被折叠?



