由于DeepSeek网页和app端经常会出现“服务器繁忙,请稍后再试”,于是我搜集各大网站资源,找到了本地部署方法的第二种。
1. 安装ollama
首先需要安装ollama,进入ollama官网「https://ollama.com/」,点击下载
下载后点击安装,安装成功后就会在桌面看见Ollama图标或者在开始菜单看到就是成功了。
2. 安装模型
在刚刚的ollama官网中,点击左上角「Models」选项,点击选择「deepseek-r1」
选择不同参数的模型,数字越大,参数越强,性能也越强。1.5b代表模型具备15亿参数。如果是1.5b版本,2G以下的显存就可以运行,甚至不需要独立显卡,核显就可以。可以根据自己的电脑性能自行选择。
命令选择1.5b的模型做样例,复制命令「ollama run deepseek-r1:1.5b」
Windows和mac系统的话,就打开终端,然后输入命令,直到出现success字样就代表安装成功了。
下图是使用案例