DeepSeek大火,但天下苦服务器繁忙,请稍后再试久矣。好在,DeepSeek开源了自己的大模型, 性能比肩 OpenAI o1 正式版,我们可以将DeepSeek部署到本地进行使用,这样的话就可以不再担心服务器繁忙,可以尽情的蹂躏DeepSeek了!
说明:
配置越高,运行效果越好,可自行根据电脑配置选择DeepSeek版本。
B是billion的缩写,也就是10亿。也就是最小的参数是15亿,最大的官网满血版是6710亿参数。
本地化部署详细教程(三步完成):
一、安装 Ollama软件(开源的大模型服务工具)
1、打开浏览器,登录https://ollama.com/ ,按照页面提示顺序下载 Ollama。
点击Download跳转一下页面,提示需要Windows10及以后的版本,点击下载。
2.下载完成后,直接双击安装程序进行安装。
3.安装好后,按下快捷键 win+R,在弹出的命令框中,输入 cmd,然后点击确定,打开命令提示符窗口。
4.在光标后面输入 ollama -v(注意中间有空格),回车查看软件版本号。如我下载的版本号为 0.5.7。
二、下载 DeepSeek 模型
1、打开网址https://ollama.com/library/deepseek-r1 ,进入 ollama 里的 deepseek - R1 模型页面。
2、根据自己电脑的配置选择合适的参数规模(7b 代表 70 亿参数,14b 代表 140 亿参数,参数越多,模型越大,效果理论上也会更好,但对电脑配置要求也更高),然后复制对应的下载命令,图中为:ollama run deepseek-r1:1.5b。
3.打开cmd终端,把复制的ollama run deepseek-r1:1.5b命令粘贴到光标后,接着按回车,等待模型下载完成。下载完成后,就可以在命令窗口直接向 DeepSeek 提问了。不过这个命令窗口界面不太美观,复制内容也不方便,我们接着进行下一步设置,到更常见的界面进行对话。
三、配置 ChatboxAI
1.为了方便对话,我们可以下载一个chatboxai (官网:https://chatboxai.app/zh)。
2.在设置中选择ollama,选择deepseekr1模型:
点击保存就可以跟Deepserk进行对话啦~