DeepSeek-R1官方满血版本是671B( 6710 亿参数),这需要极其高昂的算力才能运行起来。但是官方依然提供了一些更小尺寸的模型供研究和学习使用,比如:7b、8b、14b、32b。相应的,当参数量降低时,大模型的能力也会对应的降低,但作为日常的学习使用已基本足够。版本越高,相应的功能也明显更强大,但它需要更多内存和CPU 资源。要根据自己的需求和PC配置来选合适的模型版本。
ollama pull deepseek-r1:7b (7b使用 4.7GB 内存)
ollama pull deepseek-r1:8b (8b, 使用 4.9GB 内存)
ollama pull deepseek-r1:14b(14b,使用 9GB 内存)
ollama pull deepseek-r1:32b(32b,使用 20GB 内存)
ollama pull deepseek-r1:70b(70b,使用 43Gb 内存)
下面以DeepSeek-R1:14b安装为例
一、下载并安装Ollama
Ollama下载地址:https://ollama.com/download
在终端(Terminal)里进/Application 目录,运行命令 “ollama --version”,得到ollama version is 0.5.7 确保ollama 安装成功。
二、下载并运行DeepSeek-R1:14b模型
在终端里运行命令 ollama pull deepseek-r1:14b 获取deepseek-r1模型。
7b模型的下载命令:
ollama run huihui_ai/deepseek-r1-abliterated:7b
8b模型的下载命令:
ollama run huihui_ai/deepseek-r1-abliterated:8b
14b模型的下载命令:
ollama run huihui_ai/deepseek-r1-abliterated:14b
32b模型的下载命令:
ollama run huihui_ai/deepseek-r1-abliterated:32b
70b模型的下载命令:
ollama run huihui_ai/deepseek-r1-abliterated:70b
三、部署WebUI
方式一:docker安装
在终端里运行命令 docker --version 来确保 Docker已经安装并能正常运行。关于docker的安装,请参照官方文档:https://docs.docker.com/engine/install/
运行如下Docker 命令启动WebUI。这个命令会将容器端口 8080 映射到主机端口 3000,并确保容器可以与主机上运行的 Ollama 服务器进行通信。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
在浏览器里直接访问 http://localhost:3000。这里可能会要求创建一个Open WebUI的账号,输入邮箱用户名直接注册就可以了。
最后,你可以在浏览器里直接访问 http://localhost:3000,就可以畅通无阻地享用DeepSeek啦。(注意,如果你有部署了多个模型,这里可以选择目标模型。)
方式二:浏览器插件访问
点击链接,在Google浏览器安装插件,添加到拓展程序即可:
https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo
点击右上角的插件列表,找到Page Assist插件,点击打开。
选择deepseek-r1-abliterated,然后在下方对话框中输入你的问题即可使用。
现在你就可以在本地部署的DeepSeek-R1愉快的进行玩耍了~~~