AI应用—LangChain 和 LangGraph介绍

一、AI的环境介绍

现在必须是言必称AI,否则就会被鄙弃,觉得你跟不上时代的潮流,不fashion,思想不Open。反正一系列的想法会在不同的人,不同的场景下或明或暗的表达出来。其实AI现在有很多的问题,在应用上,前些年AI提出的一些典型的有价值的应用场景,比如自动驾驶,目前几乎已经有了结论,至少在短时间内是无法实现的。 包括现在很火的自动生成图像和视频(生成式人工智能-Generative Artificial Intelligence),其实普通人仔细一看或稍加学习就可以发现他们是假的。现在的AI,只能在既有的基础上进行创作并进行适当的组合式的简单创新,而全新的创建对现在的AI来说,几乎是不可想象的。
但是,AI在某些特定场景下,已经发挥出来了极大的作用,比如图像识别、工业应用等。特别是在一些固定场景、固定线路的自动驾驶,目前已经证明是非常不错的。在一些文本生成、甚至一些固定的算法开发的代码生成中,AI都能极大的提高工作的效率。
所以,AI是一种未来,是要求大家客观冷静、认真负责的对待的技术,而不是走两个极端。

二、LangChain 和 LangGraph

RAG(Retrieval-Augmented Generation)‌是一种结合检索和生成模型的技术架构,旨在提升大型语言模型(LLM)在处理实时数据和私有知识时的准确性和上下文感知能力。这种技术其实是现在的LLM大模型应用的一个典型场景。做为C++程序员,如果从底层自己构建也不是不行,但是太复杂太耗费时间和精力了,那么有没有类似的框架可以供广大的开发者使用呢?那就是本文介绍的LangChain 和 LangGraph。它们两个是构建基于大模型的AI应用的非常受关注的框架。
要想理解它们,先要明白人工智能代理(AI Agents),AI Agent = 大型语言模型 + 规划决策能力 + 工具调用能力 + 记忆/学习能力,它能够独立完成复杂任务闭环的智能执行者。而这两个框架,就是一种结合了人工智能体代理的新技术,目的就是为了能够处理更为复杂的交互任务。
LangChain的特点在于能够轻松的创建自定义的链,并严格的按顺序执行(即它是一个线性的工作流)。LangGraph是建立在LangChain之上,并与其相关生态兼容的库。它利用循环图的方法,协调大模型和外部工具,解决应用场景中的复杂问题。 二者均为LangChain团队打造并开发。

三、应用特点和区别

下面就两个框架的一些特点进行分析说明:
1、LangChain
通过线性工作流(Chain,链式)将LLM调用等流程串联形成一个有向无环图,它适合固定的流程场景应用,并提供了基础的并行处理模块。
2、LangGraph
通过图的模型,引入节点、边等概念,加强了对循环、分支以及状态的控制和管理。特别是状态的全流程覆盖,使得数据的传递更加安全合理。
二者的不同主要体现在:
1、LangChain是线程执行的,一般用于比较简单的应用;而LangGraph由于使用了循环图,其允许节点根据图的状态进行不断访问、迭代处理、反馈循环和复杂决策等情况,所以可以应用于复杂的场景。
2、状态执行
LangGraph相对于LangChain的无状态流程,循环执行导致了状态的更新和传递,也就是存在着大家熟悉的上下文传递。因此更适合于复杂的反复交互操作
3、条件逻辑
LangChain支持线性链,而LangGraph通过条件边加强了此功能。即LangGraph相对于LangChain更强大一些。

四、安装和使用

1、两个库的安装如下:

//推荐使用虚拟环境
1、安装Python虚拟环境:当然也可以直接安装Python并在其中安装相关软件 版本建议大于python3.8
python -m venv langchain-env  # 创建虚拟环境
source langchain-env/bin/activate  # Linux/macOS
# 或
langchain-env\Scripts\activate  # Windows
2、安装相关库
pip install dashscope langchain langgraph  #有可能会很慢 
3、安装扩展相关 #根据需要
# 常用扩展包
pip install llama-cpp-python      #本地支持
pip install chromadb              #向量数据库 

pip install langchain-community langchain-core  # 社区工具集成
pip install langchain-openai      # OpenAI 接入
pip install langchain-google-genai # Google Gemini 接入
pip install langserve            # API 服务支持
pip install httpx

2、LangChain 和 LangGraph主要是面向Python生态应用的,无法直接被C++使用,但可以通过HTTP RESTFUL接口或混合应用,下面看一下相关的简单的例程:

//服务端
from langserve import add_routes
add_routes(app, graph, path="/workflow")

//C++客户端 
#include <curl/curl.h>
curl_easy_setopt(curl, CURLOPT_URL, "http://localhost:8000/workflow/invoke");
curl_easy_setopt(curl, CURLOPT_POSTFIELDS, R"({"input":"C++test"})");

C++应用对于AI开发者来说,还是有点难度。所以搞AI懂Python还是有必要的。

五、总结

ai现在很火,但繁华的表象下已经是暗流涌动。基础的核心的技术并没有本质的突破,这是目前AI的最大的问题。所以很多大牛都在提醒,这会不会是一场盛宴落幕前的狂欢?但AI发展的方向至少在现在是没有大问题的。所以,大家还是要努力的学习和融入AI。书本上怎么说来着:“君子性非异也,善假于物也”!

<think>我们正在回答用户关于在服务器上安装langchainlanggraph的问题。根据用户提供的引用信息,我们可以结合引用中的安装步骤注意事项来回答。 步骤: 1. 确保服务器环境满足要求(如Python环境)。 2. 使用pip安装langchain-mcp-adapters(根据引用[1]),因为引用[1]提到安装命令:`pip install langchain-mcp-adapters`,同时用户还需要安装langgraphlangchain-openai。 3. 设置环境变量(如OPENAI_API_KEY,根据引用[1])。 注意:引用[2][3]提供了关于部署架构的信息,但当前问题聚焦于安装,所以主要参考引用[1]的安装步骤。 具体回答: - 首先,通过SSH连接到服务器(假设用户已经登录到服务器)。 - 确保服务器上已安装Pythonpip(建议使用Python 3.7及以上版本)。 - 使用pip安装所需的包。 另外,根据引用[1]的示例,我们还需要安装langchain-openai,因为示例中使用了它。 因此,安装命令为: ```bash pip install langchain-mcp-adapters langgraph langchain-openai ``` 同时,设置环境变量(如OPENAI_API_KEY): ```bash export OPENAI_API_KEY=<your_api_key> ``` 注意:这个环境变量设置只在当前会话有效。如果希望永久设置,可以将其写入服务器的配置文件中(如~/.bashrc或~/.profile,然后执行`source ~/.bashrc`)。 如果用户需要同时连接多个MCP服务器(引用[1]提到),那么还需要配置MCP服务器的连接信息,但安装步骤已经完成。 总结:安装步骤简单,主要就是使用pip安装三个包(langchain-mcp-adapters, langgraph, langchain-openai)并设置环境变量。 生成相关问题: 1. 如何配置MCP服务器的连接? 2. 如何验证langchainlanggraph是否安装成功? 3. 在服务器上部署LangGraph应用有哪些最佳实践?(结合引用[2]) 4. MCP架构中客户端服务器如何交互?(结合引用[3])</think>### 如何在服务器上安装 LangChain LangGraph 根据引用信息,安装步骤如下: #### 1. **准备服务器环境** - 确保服务器已安装 Python 3.7+ pip - 建议使用虚拟环境(如 `venv`)隔离依赖: ```bash python -m venv langchain-env source langchain-env/bin/activate ``` #### 2. **核心安装命令** ```bash pip install langchain-mcp-adapters langgraph langchain-openai ``` 此命令将同时安装: - `langchain-mcp-adapters`(LangChain 的 MCP 适配器) - `langgraph`(LangGraph 核心库) - `langchain-openai`(OpenAI 集成支持)[^1] #### 3. **配置环境变量** 设置 OpenAI API 密钥(引用[1]示例): ```bash export OPENAI_API_KEY=<your_api_key> ``` > 永久配置可写入 `~/.bashrc` 或服务器环境配置文件 #### 4. **验证安装** 创建测试脚本 `test_install.py`: ```python from langchain_openai import OpenAI from langgraph.graph import StateGraph print("LangChain version:", OpenAI().model_name) print("LangGraph components loaded successfully") ``` 运行验证: ```bash python test_install.py ``` ### 高级配置说明 1. **多服务器支持** 通过 `langchain-mcp-adapters` 可连接多个 MCP 服务器,需在代码中配置服务器端点(引用[1][^3]): ```python from langchain_mcp_adapters import MCPClient client = MCPClient(server_url="http://your-mcp-server:port") ``` 2. **部署到生产环境** 使用 `LangGraph Studio` 可一键部署到云端(引用[2][^2]): - 自动扩展资源 - 内置监控日志 - 无需手动配置服务器 3. **架构注意事项** MCP 采用客户端-服务器模型(引用[3][^3]): - **主机**:运行 LLM 的应用 - **客户端**:嵌入主机的连接器 - **服务器**:提供资源工具的服务端 --- ### 常见问题解决 | 问题现象 | 解决方案 | |---------|---------| | `ModuleNotFoundError` | 检查虚拟环境是否激活 | | API 连接失败 | 验证 `OPENAI_API_KEY` 网络策略 | | MCP 服务器连接超时 | 检查防火墙服务器端点配置 |
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值