笔记本电脑deepseek本地部署教程

笔记本电脑deepseek本地部署教程
过年期间deepseek爆红全球,相信各行各业都对deepseek的部署相当感兴趣。如果说chatgpt开启了普通人对AI的好奇心,那deepseek就是开启了不同人对于AI的探索欲。
deepseek的开源模型版本相当多,满足了不同人群和不同任务的AI需求,但大部分像博主这样的普通人手里只有一台小破笔记本怎么进入这条赛道呢?
博主参考了很多大佬的笔记,并且自己在本地成功部署,现在就跟大家分享一下没有足够硬件支持的小白如何在普通的笔记本电脑上部署deepseek。
轻量模型本地部署的意义
deepseek在深度思考是会给出思考过程,与chatgpt相比用户可以更好地了解到AI的思考过程和思考方式,对AI给出的答案会更加信任。但是在使用过程中总会遇到“服务器繁忙,请稍后再试。”并且大家如果使用deepseek平台处理工作信息可能会带来数据泄露的风险,尽管云平台可以提供更大的模型来进行推理,但用户数据安全得不到保障,使用的范围就大大缩小了。
但本地部署很大程度上保护了用户数据,能够防止数据泄露:
-
本地化部署的特点
- 提供了即时的数据实时更新和快速响应能力,确保系统在任何情况下都能保持稳定运行。
- 支持文件版本控制和数据同步机制,确保不同设备上的数据能够无缝衔接。
-
针对深度求索云平台的威胁防御
- 网络攻击预防:本地化部署可以更好地管理网络防火墙,限制或阻止特定类型的网络攻击。
- 数据隐私保护:通过本地化存储和处理策略,确保用户数据的安全性,防止未经授权的数据泄露。
- 故障恢复机制:能够在设备故障时快速启动备份,及时恢复数据并解决问题。
-
本地化部署的支持深度
- 技术兼容性:依赖于本地云平台的基础设施和技术,需满足特定的技术要求和性能需求。
- 扩展性和可维护性:支持对本地环境进行优化和升级,确保随着业务需求的变化能够持续优化和扩展。
一般的笔记本本地部署我推荐DeepSeek-R1-1.5B版本。DeepSeek-R1-1.5B 是一个轻量级的模型,参数量只有 15 亿,听起来是不是很“迷你”?但别小瞧了它,这可是个“小而精”的家伙。它只需要 3GB 的显存就能运行,这意味着即使你的电脑配置不高,也能轻松驾驭它。而且,它在数学推理方面表现相当出色,甚至在某些基准测试中超过了 GPT-4o 和 Claude 3.5。当然了,如果你电脑配置更高,可以尝试其他版本。
DeepSeek 不同版本模型硬件要求
以下是 DeepSeek 不同版本模型的硬件要求,小伙伴们可以结合自己电脑配置选择版本
模型版本 | 参数量 | 显存需求(FP16) | 推荐 GPU(单卡) | 多卡支持 | 量化支持 | 适用场景 |
---|---|---|---|---|---|---|
DeepSeek-R1-1.5B | 15亿 | 3GB | GTX 1650(4GB显存) | 无需 | 支持 | 低资源设备部署(树莓派、旧款笔记本)、实时文本生成、嵌入式系统 |
DeepSeek-R1-7B | 70亿 | 14GB | RTX 3070/4060(8GB显存) | 可选 | 支持 | 中等复杂度任务(文本摘要、翻译)、轻量级多轮对话系统 |
DeepSeek-R1-8B | 80亿 | 16GB | RTX 4070(12GB显存) | 可选 | 支持 | 需更高精度的轻量级任务(代码生成、逻辑推理) |
DeepSeek-R1-14B | 140亿 | 32GB | RTX 4090/A5000(16GB显存) | 推荐 | 支持 | 企业级复杂任务(合同分析、报告生成)、长文本理解与生成 |
DeepSeek-R1-32B | 320亿 | 64GB | A100 40GB(24GB显存) | 推荐 | 支持 | 高精度专业领域任务(医疗/法律咨询)、多模态任务预处理 |
DeepSeek-R1-70B | 700亿 | 140GB | 2x A100 80GB/4x RTX 4090(多卡并行) | 必需 | 支持 | 科研机构/大型企业(金融预测、大规模数据分析)、高复杂度生成任务 |
DeepSeek-671B | 6710亿 | 512GB+(单卡显存需求极高,通常需要多节点分布式训练) | 8x A100/H100(服务器集群) | 必需 | 支持 | 国家级/超大规模 AI 研究(气候建模、基因组分析)、通用人工智能(AGI)探索 |
博主电脑配置
CPU:Intel® Core™ i5-9300H CPU @2.40GHz
内存:8GB
GPU:NVIDIA GeForce GTX 1650
显存:4GB
操作系统:Windows 10
(相当古早的电脑,所以大家不用担心自己的电脑硬件会导致无法部署)
本地部署
1.下载并安装Ollama
访问官网:https://ollama.com/ 下载
2.或者直接到GitHub下载
安装文件OllamaSetup.exe大约745MB。
注:如果下载过于缓慢可以使用迅雷之类的加速下载。
3. 检验Ollama是否安装成功
win键+R,输入cmd
命令行输入 ollama -v 命令,出现如下版本号说明安装成功
ollama -v
4.通过 Ollama 拉取 DeepSeek 模型
这里我选择是的1.5b,整个模型大小1.1 GB。
1.5B:适用于轻量级任务,如边缘设备(如智能手表、物联网设备)上的简单交互、小型智能问答系统等。目前开源的最小版本。
671B:主要用于大规模云端推理,适合科研分析、数据挖掘等需要处理海量数据的复杂任务。目前开源的最强版本
更多版本可以在这里查看:https://ollama.com/library/deepseek-r1 。
命令行输入:ollama run deepseek-r1:1.5b 拉取DeepSeek模型
ollama run deepseek-r1:1.5b
整个拉取过程还是比较丝滑的,5到6分钟后看到【success】字样,代表成功安装DeepSeek R1,然后就可以与DeepSeek对话了
5. 与DeepSeek对话
通过上面步骤之后,就可以与Deep Seek对话了,如输入:你对2026应届毕业生的就业前景怎么看?
6.安装WebUI
如果不喜欢在命令行中与deepseek聊天,可以选择加入UI界面,画面会更加具有可观赏性,具体的方法可以参考这篇笔记https://zhuanlan.zhihu.com/p/23812578167
总结
虽然模型非常轻量化,但他能快速响应,具有很强的信息检索生成能力和数据驱动能力。而且,这个模型还能在很多场景中发挥大作用。快去试试吧!