5min 完成 Deepseek API部署:硅基流动API+Cheery Studio告别卡顿!

在官网使用DeepSeek时经常会出现服务器繁忙,且官方因最近客户过多,也关闭了API的购买。

那么,我们就换一种方式,利用硅基流动+Cherry Studio 轻松连接DeepSeek

目前:硅基流动支持所有版本的DeepSeek使用。R1 V3 以及各个版本的蒸馏模型,都可以调用。

(其实不止DeepSeek,还有很多大模型都可以调用)。

话不多说,直接开始操作,用最简洁的办法帮你完成deepseek的接入。

一、安装应用

我这里用的是Cherry Studio,网上还有许多工具

(都可以,就是一个工具,以后直接打开工具即可对话)

Cherry Studio:https://cherry-ai.com/

二、注册硅基流动

官网:SiliconFlow, Accelerate AGI to Benefit Humanity

打开官网:

①log in  

②输入手机号,获取验证码

③ 输入邀请码(一定记得填写,填写立即获取14块钱的token!)

邀请码:xjhU9yH7

调用三方软件的api的部分模型会产生费用,如上面图中的DeepSeek R1的满血版。

三、调用API

①获取API

进入主页后,我们点击”API密匙“——新建api密钥——点击复制,就获得了硅基流动的API了。

(流程如下图,创建过程中随意命名都可以)

②通过Cherry Studio接入API

打开我们安装好的应用程序:Cherry Studio

我们需要在安装的Cherry Studio中添加API.

我们进入Cherry Studio后,点击左下角的设置,然后选择硅基流动,在API密钥一栏中粘贴刚才复制好的API密钥,这样就完成了部署。

③最后一步:开始对话

进入到上面的聊天功能,在聊天框中选择:DeepSeek R1模型,就可以开始对话啦!

### 如何调用 DeepSeek API #### 准备工作 在正式调用 DeepSeek API 之前,需要完成一些必要的准备工作。这包括注册账户并获取个人专属的 API Key,以及安装所需的依赖库[^1]。 #### 安装依赖库 为了能够顺利调用 DeepSeek API,需确保已安装 `requests` 库。如果尚未安装该库,可以通过以下命令进行安装: ```bash pip install requests ``` #### 配置 API 密钥 成功注册账号后,在用户的控制面板中可以找到自己的 API Key。此密钥将在后续请求头中作为认证凭证使用[^2]。 #### 请求示例 (Python) 下面是一个完整的 Python 示例代码,展示如何通过非流式接口向 DeepSeek 发送请求: ```python import os import requests api_key = 'your_api_key_here' # 替换为您的实际 API Key url = "https://api.deepseek.com/v1/completions" headers = { "Authorization": f"Bearer {api_key}", "Content-Type": "application/json" } payload = { "prompt": "请解释一下什么是人工智能?", "max_tokens": 50, "temperature": 0.7, "stream": False } response = requests.post(url, headers=headers, json=payload) if response.status_code == 200: result = response.json() print(f"模型返回的结果: {result['response']}") else: print(f"请求失败,状态码:{response.status_code}, 错误信息:{response.text}") ``` 上述代码片段展示了如何构建 POST 请求发送给指定 URL 地址,并设置相关参数如提示词 (`prompt`)、最大生成令牌数 (`max_tokens`) 和温度值 (`temperature`) 等属性。 #### 解析响应数据 当服务器接收到有效请求后会返回 JSON 格式的响应消息。一个典型的成功响应可能看起来像这样: ```json { "model": "deepseek-chat", "created_at": "2025-02-15T20:15:30Z", "response": "快速排序的 Python 实现步骤如下...", "done": true, "context": [147, 523, 994], "total_duration": 54281234 } ``` 其中,“response”字段包含了由 AI 模型生成的具体回复内容;而其他元数据则提供了关于此次交互的时间戳、所使用的具体模型版本以及其他技术细节等附加信息[^3]。 #### 使用流式输出 对于某些应用场景而言,实时接收部分结果可能是更优的选择。此时只需简单修改 payload 参数中的 “stream” 属性即可启用流模式。需要注意的是,在这种情况下处理逻辑也需要相应调整以便逐块读取传入的数据流。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值