DeepSeek部署教程(基于Ollama)

虽说在过年,但不能忘了学习。这几天科技圈最火的莫过于deepseek,我抽空也学习一下deepseek的部署过程,主要还是因为官方服务已经彻底瘫了[手动狗头]。

1、下载Ollama并安装

https://github.com/ollama/ollama/releases/latest/download/OllamaSetup.exe

下载好后双击直接运行。

2、Ollama官网搜索deepseek

3、安装deepseek

依据自己的电脑配置,来决定安装deepseek模型的哪个版本。我家里的电脑还是集成显卡,因此我选择了硬件配置需求最低的1.5B,,让家里的老电脑也发挥一下余热。

低配置硬件适配

  • CPU:老旧的双核或四核处理器。
  • 内存:8GB 及以下。
  • 显卡:集成显卡或者独立显卡的显存不足 2GB。
  • 推荐模型版本:DeepSeek-R1-1.5B。该版本对硬件资源的需求极低,能够在这样的设备上稳定运行,可应对日常对话、简单文本生成等基础文本处理任务。

中配置硬件适配

  • CPU:英特尔酷睿 i5 系列或者 AMD 锐龙 5 系列。
  • 内存:16GB。
  • 显卡:显存为 4 - 6GB。
  • 推荐模型版本:DeepSeek-R1-7B。这类模型在中等配置的电脑上能够充分发挥潜力,运行效率较高,可处理简单代码生成、文章润色等具有一定复杂度的任务。

高配置硬件适配

  • CPU:英特尔酷睿 i7/i9 系列或 AMD 锐龙 7/9 系列。
  • 内存:32GB 及以上。
  • 显卡:NVIDIA GeForce RTX 30 系列、AMD Radeon RX 6000 系列等高性能独立显卡,显存高达 8GB 及以上。
  • 推荐模型版本:DeepSeek-R1-32B 甚至更高版本的模型。它们能够承担复杂的自然语言处理任务,如专业领域的文本深度分析、复杂代码的编写与调试等,可带来高效且优质的使用体验
  • 1.5b的安装命令:ollama run deepseek-r1:1.5b
  • 7b的安装命令:ollama run deepseek-r1:7b

4、运行deepseek

在控制台中输入“ollama run deepseek-r1:1.5b”,此运行过程是在电脑离线的情况下进行的,因此,在内网环境下,大家也可以放心部署。

5、聊天界面搭建

下载并安装chatbox ai,当然也可以使用web版的聊天界面

https://download.chatboxai.app/releases/Chatbox-1.9.5-Setup.exe

下载完成之后就是双击+下一步,即可完成安装

5、设置chatbox ai

进入设置界面

第一个下拉框中选择OLLAMA API

第二个下拉框是选择模型

第三部分是调整参数,需要的答案越严谨,就把进度条调整的靠左一些,需要ai随意发挥,就向右一些。

这个界面是显示相关配置的设置,使用默认即可。

7、这个是实际的运行效果,不仅能给出答案,还给出了他思考的过程。

### DeepSeek 内网部署指南 #### 创建 API Key 为了在局域网内部署并使用 DeepSeek,第一步是创建一个有效的 API 密钥。这一步骤对于后续通过 Python 调用接口至关重要[^1]。 ```bash # 假设已经登录到管理平台 curl -X POST https://api.deepseek.com/v1/api-key \ -H "Authorization: Bearer YOUR_ACCESS_TOKEN" ``` #### 配置环境变量 确保服务器上设置了必要的环境变量以便于服务启动时能够自动读取配置信息。特别是 `OLLAMA_HOST` 和 `OLLAMA_ORIGINS` 这两个参数,在批处理脚本中进行了设置[^3]: ```batchfile @echo off if not "%1"=="hide" ( start /min cmd /c %0 hide exit ) set OLLAMA_HOST=0.0.0.0:11434 set OLLAMA_ORIGINS=* echo Environment variables have been configured. ``` #### 启动服务 当一切准备就绪之后,可以通过命令行工具来启动 DeepSeek 的后台进程。这里展示了一个简单的 Windows 批处理文件片段用于自动化此操作: ```batchfile echo Starting Ollama... ollama serve & echo Ollama has started successfully and is now running in the background. timeout /t 3 exit ``` #### 使用Python调用API 最后,可以利用 Python 编写一段小程序来进行测试性的请求发送给刚刚搭建好的内网中的 DeepSeek 实例。 ```python import requests url = 'http://localhost:11434/some-endpoint' headers = {'Authorization': f'Bearer {your_api_key}'} response = requests.get(url, headers=headers) print(response.status_code) print(response.json()) ``` #### 注意事项 - **安全性考虑**:由于是在企业内网环境下运行,务必注意网络安全策略的应用以及敏感数据保护措施。 - **资源规划**:合理分配硬件资源以支持预期负载量级下的稳定性能表现。 - **日志监控**:建立完善的日志记录机制便于后期维护排查问题所需。 - **更新频率**:定期检查官方发布的最新版本说明文档,及时跟进安全补丁和技术改进内容。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值