目录
一、前言
DeepSeek本地部署可以避免数据上传到云端,确保数据安全。可以节省 API 调用的费用,可以对模型进行二次开发和定制。
二、硬件要求
!!!本人电脑没啥配置,显卡都没有~
系统 | Windows 11 |
显卡 | 不需要显卡 |
内存 | 16GB |
三、部署步骤
1. 下载 Ollama
Ollama 是一个用于管理 AI 模型的工具 ,可以在本地运行大型语言模型。
2. 安装 Ollama
建议安装到C盘,能提升Ollama的运行速度和响应时间
3. 验证Ollama
显示版本号,说明安装成功
4. 下载模型
进入Ollama官网,找到 deepseek-r1,选择合适的版本,复制下载命令。(这里我选1.5b)
DeepSeek 不同参数版本介绍
模型参数规模 | 典型用途 | CPU 建议 | GPU 建议 | 内存建议 (RAM) | 磁盘空间建议 | 适用场景 |
---|---|---|---|---|---|---|
1.5b (15亿) | 小型推理、轻量级任务 | 4核以上 (Intel i5 / AMD Ryzen 5) | 可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存) | 8GB | 10GB 以上 SSD | 小型 NLP 任务、文本生成、简单分类 |
7b (70亿) | 中等推理、通用任务 | 6核以上 (Intel i7 / AMD Ryzen 7) | 中端 GPU (如 NVIDIA RTX 3060, 12GB 显存) | 16GB | 20GB 以上 SSD | 中等规模 NLP、对话系统、文本分析 |
14b (140亿) | 中大型推理、复杂任务 | 8核以上 (Intel i9 / AMD Ryzen 9) | 高端 GPU (如 NVIDIA RTX 3090, 24GB 显存) | 32GB | 50GB 以上 SSD | 复杂 NLP、多轮对话、知识问答 |
32b (320亿) | 大型推理、高性能任务 | 12核以上 (Intel Xeon / AMD Threadripper) | 高性能 GPU (如 NVIDIA A100, 40GB 显存) | 64GB | 100GB 以上 SSD | 大规模 NLP、多模态任务、研究用途 |
70b (700亿) | 超大规模推理、研究任务 | 16核以上 (服务器级 CPU) | 多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存) | 128GB | 200GB 以上 SSD | 超大规模模型、研究、企业级应用 |
671b (6710亿) | 超大规模训练、企业级任务 | 服务器级 CPU (如 AMD EPYC / Intel Xeon) | 多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存) | 256GB 或更高 | 1TB 以上 NVMe SSD | 超大规模训练、企业级 AI 平台 |
执行 ollama run deepseek-r1:1.5b 命令,等待下载完成后就可以在本地使用大模型了
5. 使用模型
安装完成后,你可以直接在命令行中与模型对话
四、常见问题
1. 如何查看已安装的模型?
在命令行中输入以下命令:
ollama list
2. 如何删除模型?
在命令行中输入以下命令:
ollama rm deepseek-r1:1.5b
在命令行输入,ollama rm + 模型名称,例如:ollama rm deepseek-r1:1.5b,就会自动删除对应模型。
3. ollama的其它功能
命令行输入ollama,展示出ollama的其它功能
输入“ollama stop”是停止模型运行,“run + 模型名”是运行对应模型。
五、交互界面
在命令窗口使用太不方便了,也不美观哈~ 推荐用 Open-WebUI
它界面是这样的:
安装步骤下午整理出来~