背景:告别命名混乱,拥抱工程化闭环
在 LangChain 生态早期,开发者常因以下问题感到困惑:
- 命名高度相似但功能迥异:
LangChain(开发框架)、LangGraph(状态图引擎)、LangSmith(开发平台)职责边界模糊; - 工具链割裂:调试、测试、部署、监控分散在不同界面,缺乏统一工作流;
- Studio 定位不清:
LangGraph Studio与LangSmith功能重叠,新手难以区分。
为解决这些问题,LangChain 团队在 LangChain & LangGraph 1.0 版本发布前夕,启动了全面的品牌整合与重命名计划,目标是:
- 明确各组件定位
- 简化开发者认知路径
- 构建“开发 → 调试 → 部署 → 观测 → 评估”的完整工程闭环
组件重命名对照表(V1.0 起生效)
| 原名称 | 新名称 | 功能归属说明 |
|---|---|---|
| LangGraph Platform | LangSmith Deployment | 智能体(Agent)的一键部署服务 |
| LangGraph Studio | LangSmith Studio | 可视化调试与交互式开发环境 |
| LangSmith(整体) | 三大核心服务: • LangSmith Observability • LangSmith Evaluation • LangSmith Deployment | 覆盖全生命周期的生产级支持平台 |
重要提示:自 LangChain 1.0 起,
LangGraph Studio已正式更名为 LangSmith Studio,所有相关文档与 CLI 均同步更新。
欢迎关注我的开源项目
运行效果预览
如果您这个项目感兴趣,欢迎「付费点赞」支持一下!
下方点击「喜欢作者」,金额随意,心意无价。 让我们在技术路上彼此赋能,少走弯路,高效落地!
付费后,请务必添加我的微信(微信号:weber812)并发送支付凭证,我将第一时间拉您进入专属「技术支持群」。
进群后您能获得哪些福利?完整代码具体请见下方说明!
LangSmith Studio:让大模型行为“看得见、调得动”
在 LLM 与智能体应用快速落地的今天,“能跑通”远不等于“可信赖”。
LangSmith Studio 正是 LangChain 生态中打通“黑盒”的关键工具——它将复杂的模型推理过程转化为可视化、可追溯、可复现的工程对象。
通过 Studio,你可以:
- 实时查看 Agent 的每一步决策(Thought/Action/Observation)
- 对比不同 Prompt 或配置下的运行轨迹
- 手动干预或重试特定步骤
- 快速定位幻觉、循环、超时等问题
Text2Sql场景实战调试效果
实战:本地启动 LangSmith Studio(无需云端依赖)
LangSmith Studio 支持 云模式 和 本地开发模式。本文以纯本地模式为例,适合开发调试阶段使用。
步骤 1:关闭云端追踪(可选)
若希望所有数据仅保留在本地,不在 .env 中上报到 LangSmith 云端,请创建 .env 文件并添加:
LANGSMITH_TRACING=false
此设置确保你的调试数据完全私有,适合敏感项目或离线开发。
步骤 2:安装 LangGraph CLI(含内存后端)
推荐使用 uv(超快 Python 包管理器)安装带内存存储支持的 CLI:
uv add "langgraph-cli[inmem]"
inmem extra 提供了无需数据库的轻量级 checkpoint 存储,非常适合本地开发。
步骤 3:配置 langgraph.json
{ "$schema": "https://langgra.ph/schema.json", "dependencies": ["."], "graphs": { "text2sql": "agent.text2sql.analysis.graph:create_graph", "excel": "agent.excel.excel_graph:create_excel_graph" }, "env": ".env.dev"}
配置说明:
- dependencies: [“.”]:表示依赖当前目录下的 requirements.txt 或 pyproject.toml
- graphs:映射图 ID 到 Python 函数路径,函数需返回 CompiledStateGraph
- env: 指定环境变量文件(如 .env.dev)
🔗 完整配置项参考:LangGraph CLI 官方文档 https://docs.langchain.com/langsmith/cli
步骤 4:启动本地开发服务器
在终端执行:
langgraph dev
默认将在 http://127.0.0.1:2024 启动服务,并自动打开浏览器。
若未自动跳转,可手动访问 LangSmith Studio 并连接本地服务:
https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024
Studio 前端仍由 LangChain 云端提供,但所有数据交互均指向你的本地服务器,实现“前端云托管 + 后端本地运行”的混合模式。
小结
通过本次品牌整合,LangChain 1.0 不仅厘清了产品边界,更强化了从代码到生产的端到端体验。
LangSmith Studio 作为开发者的第一站,将成为你构建可靠智能体不可或缺的“驾驶舱”。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

3万+

被折叠的 条评论
为什么被折叠?



