如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁

1.为什么要部署本地模型?

DeepSeek 隐私政策中提到了关于用户输入信息收集的条款,无论你输入什么文本,以及上传什么文件都会被第三方机构所收集,所以如果是在进行相关的项目研究或者实验进展分析的时候,就很有必要对数据进行隐私保护,且本地部署是支持离线的

在这里插入图片描述

2.Ollama下载

大模型不是一个双击就可以使用的.exe可执行文件,是需要平台来运行的一个东西,Ollama就是一个支持各种大模型本地部署的一个平台 ,用这个平台管理和大模型之间的输出和输入

在这里插入图片描述

首先浏览器中输入Ollama.com网址,选择第一个

在这里插入图片描述
然后点击这里的下载按钮

在这里插入图片描述
继续点击下载按钮,根据自己电脑的版本选择,我这里选择的是Windows系统

在这里插入图片描述

浏览器右上角下载处等待下载完成

在这里插入图片描述

下载完后点击打开文件,弹出界面再点击Install下载,然后等待下载完成

在这里插入图片描述

Ollama在桌面上不会生成桌面图标,所以我们win+R打开运行窗口,输入cmd打开命令行

在这里插入图片描述

然后输入ollama -v(中间有个空格),回车,会显示出版本号,说明已经安装成功了

在这里插入图片描述

3.大模型下载部署

回到Ollama的网站,点击Models板块

在这里插入图片描述
接着点击deepseek-r1

在这里插入图片描述

选择大模型的体积,体积越大使用效果越好,但是磁盘占用的空间就越大,所以根据自己电脑的磁盘空间选择,该模型一般下在C盘(也可以选择打开D盘新建仓库下载),这里建议选择1.5b8b或者32b

模型和GPU显卡的适配表格以供参考:

模型参数 (B)VRAM 要求 (GB)推荐 GPU
DeepSeek - R1 - Zero671B~1,342 GB多 GPU 配置(例如,NVIDIA A100 80GB x16)
DeepSeek - R1671B~1,342 GB多 GPU 配置(例如,NVIDIA A100 80GB x16)
DeepSeek - R1 - Distill - Qwen 1.5B1.5B~0.75 GBNVIDIA RTX 3060 12GB 或更高
DeepSeek - R1 - Distill - Qwen 7B7B~3.5 GBNVIDIA RTX 3060 12GB 或更高
DeepSeek - R1 - Distill - Llama 8B8B~4 GBNVIDIA RTX 3060 12GB 或更高
DeepSeek - R1 - Distill - Qwen 14B14B~7 GBNVIDIA RTX 3060 12GB 或更高
DeepSeek - R1 - Distill - Qwen 32B32B~16 GBNVIDIA RTX 4090 24GB
DeepSeek - R1 - Distill - Llama 70B70B~35 GB多 GPU 配置(例如,NVIDIA RTX 4090 x2)

在这里插入图片描述

复制这里的下载命令

在这里插入图片描述

回到命令行,输入刚才复制的命令,回车,等待下载

在这里插入图片描述

下载完成后就可以和Deepseek进行交流了,输入/bye来退出对话,但是每次调用窗口对话实在是太麻烦了

4.Chatbox AI下载

我们需要借助另一个软件来实现像手机端那样的界面使用

在这里插入图片描述

输入网址chatboxai.app下载该软件,建议用谷歌浏览器,我用微软浏览器有点卡(或者直接用网页版也行)

在这里插入图片描述

下载完之后,打开软件里的设置,选择模型提供方里的Ollama API

在这里插入图片描述

勾选你刚才在本地下载的模型

在这里插入图片描述

然后win+x,点击这里的系统

在这里插入图片描述

这里有个高级系统设置,点进去

在这里插入图片描述

点击这里的环境变量

在这里插入图片描述

然后新建变量,变量名输入OLLAMA_HOST,变量值输入0.0.0.0,千万不能出错

在这里插入图片描述

再新建一个新建变量,变量名输入OLLAMA_ORIGINS,变量值输入*

在这里插入图片描述

点击确定退出

在这里插入图片描述

点击确定退出

在这里插入图片描述

然后在windows搜索栏里启动Ollama,要确保已经启动了,不然模型无法运行

在这里插入图片描述

然后就可以回到Chatbox就可以使用Deepseek


希望读者们多多三连支持

小编会继续更新

你们的鼓励就是我前进的动力!

### 如何部署 DeepSeek-R1 模型 #### 准备工作 为了成功部署 DeepSeek-R1 模型,需先确认计算机环境满足最低硬件需求并完成必要的软件准备。建议根据实际设备性能挑选适合的模型版本,比如带有8b标记的表示该模型拥有大约八十亿个参数[^2]。 #### 安装 Ollama Ollama 是运行 DeepSeek-R1 所必需的基础平台之一。通过官方文档获取最新版 Ollama 的安装包,并遵循其指引完成安装过程[^1]。 #### 获取与加载 DeepSeek Model 访问指定资源库下载目标模型文件——DeepSeek-R1 以及配套脚本;随后利用先前已就绪的 Ollama 平台导入此模型至本地环境中。 #### 设置图形化操作界面 (可选) 对于偏好直观交互方式的操作者来说,可以通过 Docker 或 Open WebUI 来构建可视化的管理面板,便于后续监控和调整模型状态。 #### 测试验证 当一切准备工作完成后,可通过发送 HTTP 请求的方式检验模型是否正常运作: ```bash curl http://localhost:11434/api/generate \ -d '{"model": "deepseek-r1:8b", "prompt": "请用五句话介绍量子计算", "stream": false}' ``` 预期会接收到 JSON 形式的回复数据流,其中包含了由 DeepSeek-R1 生产的文字内容作为回应。 #### 配置客户端工具(Page Assist) 为了让日常使用更加便捷高效,推荐安装名为 Page Assist 的浏览器扩展程序。它能够帮助用户更轻松地调用已经部署好的 AI 能力,在网页浏览过程中提供智能化支持服务。
评论 59
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值