Python 调用本地部署的DeepSeek + Ollama API 详细指南

Python 调用本地部署的DeepSeek + Ollama API 详细指南

在本文中,我们将简单介绍如何在 Python 中使用 Ollama API,以DeepSeek 模型为例。无论你是想进行简单的聊天对话、使用流式响应处理大数据、还是希望在本地进行模型的创建、复制、删除等操作,本文都可以为你提供指导。此外,我们还展示了如何使用自定义客户端和异步编程来优化你的应用程序性能,无论你是 Ollama 的新手还是经验丰富的开发者,本文都能帮助你在 Python 中更高效地使用 Ollama API。

Ollama 部署DeepSeek

参考我这篇文章:本地部署DeepSeek R1 + 界面可视化open-webui【ollama容器+open-webui容器】

测试DeepSeek部署是否Okay?

curl http://localhost:11434/api/tags

输出:
在这里插入图片描述
有类似输出的,说明 Ollama 运行正常,并且已安装 DeepSeek 模型。

Python 调用 Ollama API

POST接口:

http://localhost:11434/api/generate

Python代码

import requests
import json

API_URL = "http://localhost:11434/api/generate"  # Ollama API 端点

headers = {
    "Content-Type": "application/json"
}

data = {
    "model": "deepseek-coder",  # 你的 DeepSeek 模型名称
    "prompt": "请介绍一下 DeepSeek。",
    "stream": False  # 关闭流式输出
}

response = requests.post(API_URL, headers=headers, json=data)

if response.status_code == 200:
    result = response.json()
    print("AI 回复:", result["response"])
else:
    print("请求失败:", response.status_code, response.text)

实时打印

可以通过设置 stream=True 启用响应流,使函数调用返回一个 Python 生成器,其中每个部分都是流中的一个对象。Python代码

import requests
import json

API_URL = "http://localhost:11434/api/generate"  # Ollama API 端点

headers = {
    "Content-Type": "application/json"
}

data = {
    "model": "deepseek-r1:32b",  # 你的 DeepSeek 模型名称
    "prompt": "请介绍一下 DeepSeek。给出详细介绍",
    "stream": True  # 关闭流式输出
}

response = requests.post(API_URL, headers=headers, json=data, stream=True)

for line in response.iter_lines():
    if line:
        json_data = json.loads(line.decode("utf-8"))
        print(json_data.get("response", ""), end="", flush=True)

注意

端口号:11434,默认的

Ollama 支持的 API 端点

API 端点说明
http://localhost:11434/api/generate生成文本(DeepSeek LLM)
http://localhost:11434/api/tags列出可用模型
http://localhost:11434/api/show?name=deepseek-coder查看模型信息
http://localhost:11434/api/pull下载新模型

参考

END


在这里插入图片描述

<think>好的,用户想了解如何在本地部署 Ollama DeepSeek API。首先,我需要回忆相关的引用内容。根据引用[1],提到了使用Ollama、Docker和OpenWebUI进行本地部署。引用[2]详细说明了Python调用本地部署DeepSeekOllama API的步骤,包括端口号和API端点。引用[3]则提到了如何通过ollama选择deepseek的模型,并提供了相关链接。 用户可能需要一个分步指南,涵盖安装Ollama、拉取DeepSeek模型、运行容器以及调用API的方法。需要确保步骤清晰,特别是Docker的使用和API端点的配置。另外,常见问题如端口冲突、模型选择也要提到,帮助用户避免常见错误。还要注意是否需要安装Docker,以及如何验证部署是否成功。最后,生成相关问题可以引导用户进一步学习优化和应用场景。</think>### 如何在本地部署 Ollama DeepSeek API 以下是分步指南,整合了引用内容中的关键信息: --- #### **1. 环境准备** - **安装 Docker** 确保本地已安装 Docker,用于容器化部署。若未安装,可参考 Docker 官方文档。 - **安装 Ollama** 根据操作系统下载对应版本(Windows/macOS/Linux),参考[Ollama官网](https://ollama.com/)[^3]。 --- #### **2. 拉取 DeepSeek 模型** ```bash # 通过命令行拉取模型(以 deepseek-r1 为例) ollama pull deepseek-r1 ``` - 模型选择:可通过 `ollama list` 查看可用模型,或访问 [Ollama 模型库](https://ollama.com/library/deepseek-r1) 查询其他版本[^3]。 --- #### **3. 启动 Ollama 服务** ```bash # 默认启动(端口 11434) ollama serve ``` - **验证服务**:访问 `http://localhost:11434`,若返回欢迎信息则启动成功。 --- #### **4. 调用 APIPython 示例)** ```python import requests response = requests.post( "http://localhost:11434/api/generate", json={ "model": "deepseek-r1", "prompt": "你好,介绍一下快速排序", "stream": False } ) print(response.json()["response"]) ``` - **关键 API 端点**: - 生成文本:`http://localhost:11434/api/generate` - 查看模型:`http://localhost:11434/api/tags`[^2] --- #### **5. 部署优化(可选)** - **结合 OpenWebUI**:通过 Docker 部署可视化界面,操作更直观(参考引用[1])。 - **模型管理**:使用 `ollama pull <model-name>` 下载新模型,`ollama list` 管理本地模型。 --- #### **常见问题** 1. **端口冲突**:若端口 11434 被占用,可通过 `ollama serve --port <新端口>` 修改。 2. **模型加载失败**:检查网络是否允许访问 Ollama 服务器,或尝试重新拉取模型[^3]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

且漫CN

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值