DeepSeek模型的本地化部署

Q1:为什么要本地部署DeepSeek?

2025年新春最大的科技新闻莫过于DeepSeek开源发布了其R1版本,凭借蒸馏后的“小模型”(相对于大模型参数量和训练算力需求而言)依旧可以有媲美OpenAI-O1-min的优秀表现。

如果说之前大模型虽然功能强大,但是其较高的部署与应用门槛依旧将普通人拒之门外,那么如今的DeepSeek的R1版本的各种蒸馏版本可以说直接让大模型“飞入寻常百姓家”。

为什么要尝试本地部署开源大模型,比如DeepSeek?因为使用本地模型(简写为Local Model,LM)拥有诸多优势:

  • 完全离线运行,保护隐私数据安全
  • 无需支付在线API费用
  • 完全离线,服务稳定,无网络延迟
  • 可以自由调整和定制模型参数(利于后续扩展业务应用)

本着上述考虑,利用春节假期难得闲暇,我们也来对DeepSeek尝尝鲜!

Q2:本地部署DeepSeek的简便方法

若想在本地部署我们自己的DeepSeek,我们需要两个工具:Ollama和ChatBox。

Ollama是一个开源的本地模型运行工具,可以方便地下载和运行各种开源模型,比如目前已经发布的Llama、Qwen以及DeepSeek等;而且Ollama支持Windows、MacOS以及Linux各种操作系统,十分方便。

ChatBox则是一款AI客户端应用和智能助手,支持众多先进的AI模型和API调用,同样可在Windows、MacOS、Linux等桌面系统上使用,难能可贵地是,ChatBox还提供IOS与Android等移动端和网页端使用。

我们的计划是使用Ollama下载运行大模型,使用ChatBox提供友好的用户图形交互界面(调用Ollama的API)。

21 | 安装Ollama大模型平台

首先访问Ollama的官网(https://ollama.com/),选择自己系统对应的版本进行下载(OllamaSetup.exe),完成后点击安装(INSTALL)等待完成即可。安装完成后可以在Windows的“开始”菜单中发现“羊驼”图标,表示安装完成。

在这里插入图片描述在这里插入图片描述在这里插入图片描述

22 | 安装本地DeepSeek大模型

接下来首先点击上图中的“羊驼”图标,查看任务管理器或Windows系统右侧任务图标可以发现“羊驼”在运行。

注意Ollama需要在命令行中调用大模型安装与运行命令,因此可以打开Windows上的命令行界面(CMD或PowerShell均可,推荐PowerShell,因为命令更贴近Linux风格)

为了获取Ollama中安装DeepSeek-R1的命令,我们需要在Ollama首页选择“Models”页面,然后从中选择DeepSeek。

在这里插入图片描述点击进入到DeepSeek-R1模型界面,可以通过下拉框选择适合自己的R1蒸馏版本(类似于以R1模型为老师学习得到的不同年级的学生模型),其中“7b”代表模型参数量为70亿,越大的参数规模意味着安装运行更大的算力资源,从而对笔记本或服务器的性能要求越高。

在这里插入图片描述如何选择适合自己笔记本或个人电脑的DeepSeek-R1?可以参考下述性能需要表。根据表中需求,此次我们选择了较小的R1-7b模型。

在这里插入图片描述接下来只需要在命令行界面中运行Ollama的运行命令即可:

在这里插入图片描述一旦安装完成,其实我们就可以在命令行的提示中运行测试DeepSeek-R1-7b了,接下来自己尝试要求DeepSeek以虎扑的风格来“评价2025年春节”,可以看到其清晰的思考过程()和输出结果,其幽默的风格确实很像虎扑UP主(#.#)

在这里插入图片描述## 23 | 安装ChatBox,接入Ollama API

本质上来说,程序员使用上述命令行界面已经可以自然地与DeepSeek交互。但是为了获得更好的用户图形体验,我们可以进一步下载ChatBox并调用Ollama的API,在图形界面中与DeepSeek交互。

在ChatBox的下载页面选择自己喜欢的方式,也可以使用网页端进行体验(https://chatboxai.app/zh#download)。

此时需要在ChatBox的Setting中选择Ollama-API,并在相应的模型中选择DeepSeek。如果没有可用的模型,需要根据自己的操作系统进行相应的本地配置。配置完成后保存即可在新对话中与DeepSeek进行对话啦!

在这里插入图片描述在这里插入图片描述在这里插入图片描述

### 本地部署 DeepSeek 的原因 #### 安全性和隐私保护 对于许多企业而言,数据安全和隐私至关重要。通过在本地环境中运行 DeepSeek,可以确保敏感信息不会离开公司内部网络环境[^1]。这不仅减少了潜在的数据泄露风险,还使得企业能够更好地控制谁有权访问这些数据。 #### 性能优化 当应用程序和服务位于同一地理位置时,通常可以获得更低延迟以及更稳定的服务质量。因此,在靠近最终用户的地点安装 DeepSeek 可以显著提高响应速度并改善用户体验[^2]。 #### 法规遵从性 不同国家和地区有不同的法律法规来管理个人身份信息 (PII) 和其他受监管的信息处理方式。某些情况下可能不允许将此类资料传输到国外服务器上存储或分析;而在本地部署则更容易满足特定司法管辖区内的合规要求[^3]。 #### 自定义配置灵活性 拥有自己的硬件设施意味着可以根据具体需求调整资源分配情况,从而实现最佳性能表现。此外,还可以针对特殊应用场景定制化修改软件栈而不必担心影响公共云平台上其他租户的操作[^4]。 ```python # Python伪代码展示如何设置本地DeepSeek服务参数 class LocalDeploymentConfigurator: def __init__(self, hardware_specifications, security_requirements): self.hardware_specifications = hardware_specifications self.security_requirements = security_requirements def configure(self): # 配置过程... pass ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值