一、LangChain:LLM应用开发框架
LangChain 是一个开源的开发框架,用于构建基于大语言模型(LLM)的应用程序。它通过模块化设计解决了LLM应用的三大核心挑战:
核心特性
- 模块化组件
-
Models: 支持OpenAI/Gemini/开源模型等30+供应商
-
Prompts: 模板化提示词管理
-
Indexes: 支持向量数据库检索
-
Memory: 会话状态管理
-
- 链式架构(Chains)
from langchain.chains import LLMChain chain = LLMChain(llm=llm, prompt=prompt) chain.run("解释量子纠缠")
- Agent系统
-
支持ReAct/PAL等推理框架
-
工具集成(PythonREPL/搜索引擎/API等)
-
二、LangSmith:全链路开发平台
LangSmith 是官方的LLM应用开发运维平台,提供:
核心功能
模块 |
功能描述 |
---|---|
Trace系统 |
可视化LLM调用链,分析token消耗 |
测试管理 |
版本比对/质量监控/回归测试 |
数据标注 |
人工反馈收集与监督学习 |
生产监控 |
实时警报/性能指标仪表盘 |
三、LangGraph:复杂工作流引擎
LangGraph 扩展了LangChain的Agent能力,支持构建有状态的多智能体系统:
关键技术特性
- 图计算架构
-
节点:LLM调用/工具执行/条件判断
-
边:控制流逻辑(分支/循环)
-
- 状态管理
class State(TypedDict): messages: List[dict] user_query: str
- 多Agent协作
-
支持Actor模型实现任务分发
-
内置恢复/重试机制
-
典型应用场景
四、LangServe:API部署工具
LangServe 实现LangChain应用的快速产品化:
核心价值
- 一键部署
langchain app publish my_chain --name "QA-Bot"
- 自动生成
-
Swagger API文档
-
Playground测试界面
-
Webhook配置
-
- 生产级特性
-
请求批处理
-
自动扩缩容
-
鉴权集成
-
五、生态协同工作流
开发阶段:LangChain构建基础链 → LangGraph设计复杂工作流
测试阶段:LangSmith调试优化 → 标注训练数据
部署阶段:LangServe发布API → LangSmith生产监控
通过此生态体系,开发者可将LLM应用的开发周期从周级缩短至小时级,同时保障生产环境可靠性。