注意本地部署DeepSeek需要强大的电脑硬件,其中GPU的显存最为关键,建议根据实际情况进行模型选择。
前言:
DeepSeek作为国产AI,作为“国产之光”采用了动态神经元激活机制和混合精度量化技术,显著降低了计算量和模型体积,提高了推理能力和吞吐量。例如,DeepSeek-R1模型在AIME和MATH-500等基准测试中展现出卓越的推理能力和更快的复杂问题解决响应速度。此外,DeepSeek的推理效率较高,参数量级较GPT-4减少30%,在同等硬件条件下推理速度提升25%,适合边缘计算场景。DeepSeek的训练成本远低于国际竞品。例如,DeepSeek-V3的训练成本仅为约557.6万美元,而GPT-4等模型的训练成本高达数亿美元。DeepSeek的API用户使用成本也相对较低,仅为OpenAI的5%。这种低成本高效率的模式使得DeepSeek在市场上具有极高的性价比优势。因此大家可以自行按照步骤进行部署本地大模型,体验一下国产的大模型AI。如果实在电脑硬件有限,也可以通过DeepSeek手机端APP和DeepSeek官网进行体验。这两个方式只需要使用手机号注册即可使用。
本地部署方式:
DeepSeek的本地部署有很种方法,我分享的这种是适合新手的方法。适合新手小白的一共有两种方法:1、通过Ollama进行本地部署
2、通过LM studio进行部署
我这里介绍的方法是通过LM studio 进行DeepSeekR1模型的本地部署。
其实这两种方法差不多,但是ollama只能强制默认安装在c盘并且安装时是在Windows的命令提示符中输入命令进行安装对新手不是很友好,为了导致不必要的麻烦我们这里选择可以自定义安装的 LM studio进行本地部署。
如果对Ollama感兴趣的朋友可以自行去官网下载:Ollama
具体步骤:
1、安装LM studio
前往官网下载LM studio Download LM Studio - Mac, Linux, Windows 注意这里下载0.3.9版本,因为只有这个版本才支持自定义安装。(由于LM studio为国外网站所以下载时会很慢,建议复制此链接在迅雷中下载)
安装完成后双击打开LM studio
点击右下角的设置,将语言设置成简体中文
这样就能正常使用了
2、下载DeepSeekR1模型
下载AI大模型有两个常用的网站:1、魔搭社区 2、HF-Mirror
这里特别注意:下载DeepSeekR1模型时,要下载GGUF格式,因为一些编译的原因只能识别GGUF格式的模型
(这里除了DeepSeekR1模型外,还可以下载其它模型,都可以体验一下,操作与后面一样,例如:CausalLM-14B-GGUF Owen2.5-32B-AGI-GGUF等都可以下载下来体验一下)
这里我们以魔搭社区为例:进入官网后在搜索框搜索DeepSeek-R1-GGUF
这里可以看到很多版本,这里根据自己电脑的性能进行选择。数字越大代表版本越高,AI的使用体验更好。这里我们以7B为例点击DeepSeek-R1-Distill-Qwen-7B-GGUF,然后点击模型文件
这里可以看到虽然都是7B但是大小不同,这里该如何选择呢,最简单的办法就是选择与自己电脑显存大小最接近但是不超过自己的显存。如何查看显存:按住电脑CTRL+SHIFT+ESC进入任务管理器,点击性能往下翻再点击GPU
图片所示的专用GPU就是自己电脑的显存大小,选择DeepSeek模型的大小时,选最接近的但是不能超过。一旦超过当你启动这个模型时,真个电脑的GPU资源都会分配给DeepSeek模型,此时你的电脑会很卡,DeepSeek运行也会很慢,严重影响体验。(下载时,如果遇到下载速度很慢,建议复制链接到迅雷下载)
3、导入DeepSeekR1模型
我们回到LM studio 点击左上角我的模型,会出现如图示的界面。
接下来我们选择一个空间较大的磁盘创建模型文件夹
这里要特别注意:此文件夹要是三层结构,如图所示:
必须严格按这样的方式建立文件夹,否则模型将导入失败。
文件夹创建好以后将下载好的GGUF格式模型复制到此文件夹中
最后返回到 LM studio中点击模型目录傍边的三个点,然后点击更改,选择刚才创建的第一层文件夹如下图:选择完后,就能看见我们所下载的模型了。
点击左上角的聊天,回到最开始的界面,然后点击最上面加载模型,再点击我们下载的模型,如下图所示:
这里不需要特别的设置,可以将快速注意力打开,其余的可以默认,最后点击加载模型,等待进度条加载完毕,DeepSeekR1模型就部署好了
接下来,你就可以问它任何问题,注意要遵守法律法规。回答的快慢与我们下载的DeepSeek模型有关。