如何免费使用 DeepSeek API:分步指南

DeepSeek 是一个强大的人工智能模型,它提供了先进的自然语言处理能力。凭借最新的 DeepSeek V3,您可以获得高质量的 AI 驱动的聊天回复,使其成为 AI 聊天机器人、自动化和内容生成等各种应用的绝佳选择。 最棒的是什么? 您可以通过 OpenRouter 免费使用 DeepSeek API(应用程序编程接口)。 无论您是构建聊天机器人、自动化任务还是生成创意内容,DeepSeek API 都可以成为您应用程序的改变者。

在本详细指南中,我们将带您了解开始使用 DeepSeek API 的每一个步骤,包括:

  1. 如何获取 OpenRouter API 密钥并设置您的环境。
  2. 如何在 Python 中发出 API 请求,这是将 DeepSeek 集成到您的项目中的最简单方法之一。
  3. 如何在 VS Code(Visual Studio Code) 中使用 DeepSeek API 来构建和测试您的 Python 应用程序。
  4. 如何使用 Apifox(一款强大的 API 管理工具)轻松集成和测试 DeepSeek API。

在本指南结束时,您将拥有高效地将 DeepSeek 集成到您的项目中的工具和知识,并开始利用 AI 实现各种用例。


DeepSeek API 入门

在您可以开始在您的应用程序中使用 DeepSeek 之前,您需要先访问 API。幸运的是,OpenRouter 让开发者可以轻松免费地访问 DeepSeek。该过程非常简单,我们将引导您完成。

步骤 1:获取您的 OpenRouter API 密钥

要与 DeepSeek API 交互,您首先需要从 OpenRouter 获取一个 API 密钥,OpenRouter 是一个提供与 OpenAI 兼容的 API 端点的平台。以下是如何获取它:

  1. 访问 OpenRouter 网站,网址为 https://www.openrouter.ai
  2. 注册或登录您的 OpenRouter 帐户。
  3. 登录后,导航到仪表板的 API 部分

img

  1. 单击 创建密钥 按钮。 这将生成一个唯一的 API 密钥,您需要使用该密钥对您的请求进行身份验证。

img

  1. 复制 API 密钥并将其保存在安全的位置,因为您需要在所有未来的 API 请求中使用它。

步骤 2:安装所需的库

要在 Python 中与 API 交互,您需要 requests 库,它可以简化发送 HTTP 请求。 如果您尚未安装它,您可以轻松地通过在终端中运行以下命令来安装它:

pip install requests

这将安装 requests 库,这对于在 Python 中进行 API 调用是必需的。 如果您的项目需要,您也可以稍后安装其他库。


使用 Python 发出 API 请求

现在您已经拥有了 API 密钥和必要的依赖项,您就可以开始向 DeepSeek 发出 API 请求了。 以下是一个在 Python 中执行此操作的简单示例。

步骤 1:创建您的 Python 脚本

打开您的代码编辑器(例如 Visual Studio Code),然后创建一个新的 Python 文件。 让我们将其命名为 deepseek.py。 在此文件中,您将编写代码以向 DeepSeek API 发送请求。

步骤 2:添加代码

以下是使用 requests 库向 DeepSeek API 发送请求的基本 Python 脚本。

import requests

# Replace with your OpenRouter API key
API_KEY = 'your_openrouter_api_key'
API_URL = 'https://openrouter.ai/api/v1/chat/completions'

# Define the headers for the API request
headers = {
    'Authorization': f'Bearer {API_KEY}',
    'Content-Type': 'application/json'
}

# Define the request payload (data)
data = {
    "model": "deepseek/deepseek-chat:free",
    "messages": [{"role": "user", "content": "What is the meaning of life?"}]
}

# Send the POST request to the DeepSeek API
response = requests.post(API_URL, json=data, headers=headers)

# Check if the request was successful
if response.status_code == 200:
    print("API Response:", response.json())
else:
    print("Failed to fetch data from API. Status Code:", response.status_code)

步骤 3:运行脚本

添加代码后,保存文件并打开终端或命令提示符。 导航到 deepseek.py 文件所在的目录,然后使用以下命令运行脚本:

python deepseek.py

如果一切设置正确,您应该在终端中看到来自 DeepSeek 的响应。


将 DeepSeek API 与 Apifox 结合使用

Apifox 是一款流行的 API 管理和测试工具,可以轻松管理、测试和调试 API。 如果您更喜欢基于 GUI 的方法来测试您的 API 请求,Apifox 是一个很棒的工具。 以下是如何将 DeepSeek API 与 Apifox 集成。

步骤 1:安装 Apifox

  1. 转到 Apifox 网站 并注册一个免费帐户。
  2. 在您的系统上下载并安装 Apifox。

步骤 2:创建一个新的 API 请求

安装 Apifox 后,请按照以下步骤测试 DeepSeek API:

  1. 打开 Apifox 并创建一个新的 API 请求
  2. 将 HTTP 方法设置为 POST
  3. URL 字段中,输入 API 端点:https://openrouter.ai/api/v1/chat/completions
    在这里插入图片描述

步骤 3:配置标头

标头 部分中,添加以下标头:

  • Authorization: Bearer your_openrouter_api_key
  • Content-Type: application/json

步骤 4:添加请求正文

正文 部分中,选择 JSON 格式并添加以下数据:

{
  "model": "deepseek/deepseek-chat:free",
  "messages": [{"role": "user", "content": "What life after death?"}]
}

在这里插入图片描述

步骤 5:发送请求

单击 发送 以发出请求。 如果一切配置正确,您将收到来自 DeepSeek 的响应,并且您可以直接在 Apifox 中分析结果。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

在 Visual Studio Code (VS Code) 中使用 DeepSeek API

img

Visual Studio Code (VS Code) 是 Python 开发的绝佳选择,因为它具有丰富的功能和扩展。 以下是如何在 VS Code 中设置您的环境以使用 DeepSeek API。

步骤 1:安装 VS Code 和 Python

如果您还没有,您需要下载并安装 VS CodePython

  1. 这里 下载 VS Code
  2. python.org 安装 Python

步骤 2:在 VS Code 中安装 Python 扩展

安装 VS Code 后,打开它并按照以下步骤操作:

  1. Ctrl+Shift+X 打开扩展市场。
  2. 在搜索栏中,键入 Python 并从 Microsoft 安装官方 Python 扩展。
  3. 此扩展程序将使使用 Python 进行编码变得更加容易,从而提供语法突出显示、代码 linting 和 IntelliSense 等功能。

步骤 3:创建并运行您的 Python 脚本

  1. 打开您想要在 VS Code 中保存 Python 脚本的文件夹。
  2. 创建一个新文件并将其命名为 deepseek.py
  3. 步骤 2 复制并粘贴 Python 代码。
  4. 打开 VS Code 中的终端(按 Ctrl + ~),然后通过键入以下命令运行脚本:
python deepseek.py

img

您应该在 VS Code 终端中看到来自 DeepSeek 的响应。


结论

对于任何希望将 AI 驱动的自然语言处理集成到其应用程序中的人来说,DeepSeek 都是一个强大的工具。 借助 OpenRouter,您可以免费访问 DeepSeek 的功能,并立即开始构建 AI 驱动的解决方案。

在本指南中,我们介绍了:

  • 如何从 OpenRouter 获取 API 密钥并设置您的环境。
  • 如何使用 Python 发送 API 请求。
  • 如何在 Visual Studio Code 中使用 DeepSeek。
  • 如何使用 Apifox 测试和管理 API 请求。

通过执行这些步骤,您将能够将 DeepSeek 无缝地集成到您的项目中,并释放 AI 驱动的聊天响应、自动化和内容生成的全部潜力。

<think>好的,用户想了解如何在本地部署 Ollama DeepSeek API。首先,我需要回忆相关的引用内容。根据引用[1],提到了使用Ollama、Docker和OpenWebUI进行本地部署。引用[2]详细说明了Python调用本地部署的DeepSeek和Ollama API的步骤,包括端口号和API端点。引用[3]则提到了如何通过ollama选择deepseek的模型,并提供了相关链接。 用户可能需要一个分步指南,涵盖安装Ollama、拉取DeepSeek模型、运行容器以及调用API的方法。需要确保步骤清晰,特别是Docker的使用API端点的配置。另外,常见问题如端口冲突、模型选择也要提到,帮助用户避免常见错误。还要注意是否需要安装Docker,以及如何验证部署是否成功。最后,生成相关问题可以引导用户进一步学习优化和应用场景。</think>### 如何在本地部署 Ollama DeepSeek API 以下是分步指南,整合了引用内容中的关键信息: --- #### **1. 环境准备** - **安装 Docker** 确保本地已安装 Docker,用于容器化部署。若未安装,可参考 Docker 官方文档。 - **安装 Ollama** 根据操作系统下载对应版本(Windows/macOS/Linux),参考[Ollama官网](https://ollama.com/)[^3]。 --- #### **2. 拉取 DeepSeek 模型** ```bash # 通过命令行拉取模型(以 deepseek-r1 为例) ollama pull deepseek-r1 ``` - 模型选择:可通过 `ollama list` 查看可用模型,或访问 [Ollama 模型库](https://ollama.com/library/deepseek-r1) 查询其他版本[^3]。 --- #### **3. 启动 Ollama 服务** ```bash # 默认启动(端口 11434) ollama serve ``` - **验证服务**:访问 `http://localhost:11434`,若返回欢迎信息则启动成功。 --- #### **4. 调用 API(Python 示例)** ```python import requests response = requests.post( "http://localhost:11434/api/generate", json={ "model": "deepseek-r1", "prompt": "你好,介绍一下快速排序", "stream": False } ) print(response.json()["response"]) ``` - **关键 API 端点**: - 生成文本:`http://localhost:11434/api/generate` - 查看模型:`http://localhost:11434/api/tags`[^2] --- #### **5. 部署优化(可选)** - **结合 OpenWebUI**:通过 Docker 部署可视化界面,操作更直观(参考引用[1])。 - **模型管理**:使用 `ollama pull <model-name>` 下载新模型,`ollama list` 管理本地模型。 --- #### **常见问题** 1. **端口冲突**:若端口 11434 被占用,可通过 `ollama serve --port <新端口>` 修改。 2. **模型加载失败**:检查网络是否允许访问 Ollama 服务器,或尝试重新拉取模型[^3]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值