langchain调用deepseek api

from langchain.chat_models import init_chat_model

# 设置环境变量
api_key = "sk-3"
api_base = "https://api.deepseek.com/"

# 初始化聊天模型和嵌入模型
llm = init_chat_model(
    model="deepseek-chat",
    api_key=api_key,
    api_base=api_base,
    temperature=0,
    model_provider="deepseek",
)
# 发送消息
response = llm.invoke("你好,请介绍一下你自己")
print(response.content)

参数说明

  • model="deepseek-chat":指定使用DeepSeek的聊天模型
  • api_key:你从DeepSeek拿到的API密钥
  • api_base:DeepSeek的API地址
  • temperature=0:这个参数很重要,控制AI回答的创造性。0表示最保守最一致的回答,1表示最有创意但可能不太稳定
  • model_provider="deepseek":告诉LangChain这是DeepSeek的服务

控制台输出
在这里插入图片描述

### 如何通过 LangChain 调用 DeepSeek 模型 在 LangChain调用 DeepSeek 模型可以通过 `langchain_deepseek` 提供的功能实现。以下是具体方法: 首先,需要安装必要的库来支持 DeepSeek 的集成。可以使用以下命令完成依赖项的安装[^1]。 ```bash pip install langchain-deepseek ``` 接着,在 Python 环境中导入所需的模块并初始化模型实例。下面是一个完整的代码示例展示如何配置和使用 DeepSeek 模型: ```python from langchain_deepseek import ChatDeepSeek llm = ChatDeepSeek( model="deepseek/coderxl", # 替换为你想要使用的特定模型名称 temperature=0, max_tokens=None, timeout=None, max_retries=2, # api_key="your_api_key_here", # 如果 API 需要认证,则在此处提供密钥 ) # 使用 LLM 进行推理 response = llm.predict("请解释量子计算的基本原理。") print(response) ``` 上述代码片段展示了如何创建一个基于 DeepSeek 的大语言模型对象,并设置一些可选参数如温度 (`temperature`) 和最大重试次数 (`max_retries`)。如果目标环境中的 DeepSeek 接口需要身份验证,则应指定有效的 `api_key` 参数。 #### 关键点说明 - **Model Parameter**: `"model"` 字段用于指明所选用的具体预训练模型版本。例如,可以选择像 `deepseek/large` 或其他由官方发布的变体。 - **Temperature Control**: 温度值决定了输出随机性的程度;较低数值倾向于更保守的回答而较高则增加多样性。 - **Timeout & Retries**: 设置超时时间和失败后的自动尝试机制有助于提高请求稳定性特别是在网络条件不佳的情况下。 以上即为利用 LangChain 成功接入并操作 DeepSeek 大规模人工智能系统的完整流程介绍。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

非常大模型

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值