如何在本地部署DeepSeek-R1模型?(两种方法)
方法一:DeepSeek-R1+Ollama + Chrome 插件Page Assist
方法二:DeepSeek-R1+Ollama +docker+Open-webui
方法一:DeepSeek-R1+Ollama + Chrome 插件Page Assist :
假设你已经安装好了Ollama ,直接到官网Models下面,目前排第一的就是deepseek-r1。
如果你还没装Ollama,点击官网右上角的Download下载安装:https://ollama.com/


进入DeepSeek -r1的模型界面,在中间左侧下拉找到你想下载的对应参数的模型。量化后的1.5b基本所有电脑都能跑,包括电子垃圾的配置,7b和8b主流配置的电脑一般也没问题(16GB的内存会相对宽裕一些),14b往上的需要查一下自己电脑的显存和内存,一般需要至少32GB或者更高的内存会更稳妥。


然后打开本地的命令提示符,把上图中间右侧的指令复制进去,回车键开始下载安装对应参数的模型:
ollama run deepseek-r1:7b


注意这个run的指令是运行,如果本地没有这个模型会先下载再运行。如果你只想下载不想通过命令提示符来运行这个模型(交互界面太挫了),你可以使用ollama pull指令来执行仅下载的功能:
ollama pull deepseek-r1:7b
下载完成后你可以通过ollama list指令查看所有本地模型占用的存储空间:
ollama list


如果你想看具体某一个模型的参数。可以使用ollama show指令:
ollama show <模型名称>


好了,到这里模型已经下载好了。
交互的方式你当然可以选择很流行的Open WebUI ,不过我觉得普通用户光是花额外精力弄这个就已经很烦了,毕竟你不能指望人均熟练Docker 或者前端的本地部署。
我的推荐是在Chrome应用商店找到Page Assist,它直接提供了一个类似Open WebUI的交互界面来运行本地的大模型:


装好这个插件之后点击图标打开它,在最右侧的设置下找到Ollama,输入Ollama的接口信息,然后点击保存:
http://127.0.0.1:11434


(可选项)当然你也可以在OpenAI 兼容API下找到API服务的设置,这里也有DeepSeek选项:


(可选项)选中之后你唯一需要做的就是填入你的api key:


点击左上方的新聊天,如果设置没有问题,中间会显示Ollama正在运行,上方有下拉菜单可以选择你要运行的本地大模型:




方法二:DeepSeek-R1+Ollama +docker+Open-webui
Step 1.本地下载deepseek模型(mac,Linux,windows系统均可使用ollama)

下载成功后终端输入ollama,检验是否成功

Step 2.下载不同版本模型(需要根据机器性能决定 模型参数大小)


运行右上角命令行在终端中(windows使用cmd,mac使用terminal)
ollama run deepseek-r1:7b

Step3.网页管理 (通过docker管理网页)(https://github.com/open-webui/open-webui)
下载完docker后,运行命令
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Step4.点对应的Port会弹出类似官网网页的对话窗口


可供参考资料: