LangChain快速入门:多模型调用实践整合OpenRouter、Deepseek等API接口

该文章已生成可运行项目,

LangChain多模型调用实践:整合OpenRouter、Deepseek等API接口

引言

在人工智能快速发展的今天,各种大语言模型层出不穷。使用LangChain框架,我们可以方便地调用不同的模型API,本文将介绍如何通过LangChain调用OpenRouter、Deepseek等模型服务。

基础环境准备

在开始之前,我们需要安装必要的依赖:

pip install langchain-openai
pip install langchain[deepseek]  # 如果需要使用Deepseek
pip install langchain-community  # 如果需要使用社区版本的模型

OpenRouter API调用

OpenRouter提供了兼容OpenAI接口规范的服务,我们可以直接使用langchain_openaiChatOpenAI来调用:

from langchain_openai import ChatOpenAI

# 配置OpenRouter API
model = ChatOpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key="your_api_key_here",
    model="qwen/qwq-32b:free"
)

Deepseek模型调用

对于Deepseek模型,LangChain提供了专门的包支持:

from langchain_deepseek import ChatDeepSeek

# 配置Deepseek模型
model = ChatDeepSeek(
    model="deepseek-chat",
    api_key="sk-deepseek-v1-your_key_here"
)

使用社区版本调用其他模型

对于一些未在官方集成列表中的模型(如通义千问),我们可以使用LangChain社区版本:

from langchain_community.chat_models import ChatTongyi
# 配置通义千问模型

消息处理示例

下面是一个使用系统消息和用户消息的示例:

from langchain_core.messages import HumanMessage, SystemMessage
from langchain_core.output_parsers import StrOutputParser

# 创建消息列表
messages = [
    SystemMessage(content="请将用户的提问转换为中文,不用要回答问题"),
    HumanMessage(content="who are you")
]

# 调用模型获取结果
result = model.invoke(messages)
print(result)

关键点解析

  1. 模型调用方式

    • 使用ChatOpenAI类可以调用符合OpenAI接口规范的服务
    • 每个模型服务都需要相应的API密钥
    • 可以通过base_url参数指定不同的API端点
  2. 消息类型

    • SystemMessage: 用于设置系统级指令
    • HumanMessage: 用于传递用户输入
    • 这些消息类型来自langchain_core.messages模块
  3. 输出处理

    • 可以使用StrOutputParser进行输出解析
    • model.invoke()方法直接返回模型响应

注意事项

  1. 使用前请确保已经获取了相应的API密钥
  2. 不同模型的接口可能有细微差别,需要查看相应的文档
  3. 建议在正式环境中做好错误处理
  4. API调用可能会产生费用,请注意控制使用量

结论

LangChain提供了一个统一的接口来调用各种大语言模型,大大简化了开发流程。通过本文介绍的方法,我们可以根据需求灵活选择和切换不同的模型服务。

参考资料

  • LangChain官方文档:https://python.langchain.com/docs/integrations/providers/
本文章已经生成可运行项目
要使用 LangChain 框架调用 DeepSeek 大模型进行开发,需要完成以下几个关键步骤: ### 环境准备 首先,确保你的开发环境已经配置好 Python 和必要的开发工具。推荐使用 Python 3.12.9 或更高版本,并且建议使用虚拟环境来管理项目的依赖包。可以通过以下命令创建和激活虚拟环境: ```bash python -m venv venv source venv/bin/activate # Linux/MacOS venv\Scripts\activate # Windows ``` 接着,安装 LangChain 及其对 DeepSeek 的支持模块。有两种安装方式: - **通过 pip 安装**:可以直接使用 `pip` 命令安装 `langchain-deepseek` 包。 ```bash pip install langchain-deepseek ``` - **从源码安装**:如果希望获取最新的功能或修复,可以从 GitHub 上克隆 `langchain-deepseek` 仓库并进行本地安装。 ```bash git clone https://github.com/SyJarvis/langchain-deepseek cd langchain-deepseek pip install -e . ``` ### 配置 DeepSeek 模型 在使用 LangChain 调用 DeepSeek 模型之前,需要确保你有一个可用的 DeepSeek 模型实例。如果你打算使用本地部署的 DeepSeek 模型(例如 `deepseek-r1`),则需先启动相应的服务。 假设你已经在本地运行了一个基于 Ollama 的服务,并且该服务正在监听 `http://localhost:11434/v1/` 地址,那么你可以按照如下方式配置 LangChain调用这个模型: ```python import os from langchain_openai import ChatOpenAI from langchain.schema import HumanMessage # 设置 API 基础地址和密钥 os.environ["OPENAI_API_BASE"] = "http://localhost:11434/v1/" os.environ["OPENAI_API_KEY"] = "xxx" # 如果不需要认证,可以随意填写 # 初始化 LLM 客户端 llm = ChatOpenAI(model_name="deepseek-r1:1.5b", temperature=0) # 发送请求给模型 result = llm([HumanMessage(content="土拨鼠原产地")]) print(result) ``` ### 开发与调试 一旦完成了上述配置,就可以开始编写更复杂的逻辑了。LangChain 提供了许多高级特性,比如提示工程、记忆机制、链式调用等,这些都可以用来增强你的应用程序。 对于初学者来说,建议先尝试一些简单的例子,例如构建一个基本的聊天机器人或者问答系统。随着对框架理解的加深,再逐步引入更多的组件和技术,如向量数据库、外部工具集成等[^4]。 ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值