Python 调用本地部署DeepSeek的API

Python 调用本地部署DeepSeek的API 详细指南

1. 确认 Ollama 是否正确运行

如果你使用 Ollama 部署了 DeepSeek,默认 API 运行在 11434 端口。首先,检查 Ollama 是否正常运行:

curl http://localhost:11434/api/tags

如果返回:

{
   "models":["deepseek-coder:latest", "deepseek-chat:latest"]}

说明 Ollama 运行正常,并且已安装 DeepSeek 模型。


2. Python 调用 Ollama 运行的 DeepSeek

2.1 发送对话请求

Ollama 的 API 端点与 OpenAI 兼容 API 不同,需要使用 /api/generate

import requests
import json

API_URL = "http://localhost:11434/api/generate"  # Ollama API 端点

headers = {
   
    "Content-Type": "application/json"
}

data = {
   
    "model"
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值