目录
一、部署原理与优势
1.1 为什么选择本地部署?
1.2 技术架构解析
用户终端 → Ollama服务 → DeepSeek模型 → OpenWebUI交互
二、环境搭建(关键步骤详解)
2.1 硬件检测与配置
# 验证NVIDIA显卡状态(需安装CUDA 12+)
nvidia-smi
硬件需求对比
组件 | 最低配置 | 推荐配置 |
---|---|---|
CPU | i5-8500 | i7-12700 |
内存 | 16GB | 32GB |
显存 | 无GPU | RTX 3060(8GB) |
存储 | 30GB | 100GB NVMe |
2.2 软件环境安装
步骤1:安装Ollama服务
官网下载ollama:Ollama
下载后安装即可
步骤2:配置模型存储路径
修改环境变量避免C盘占满:
三、模型部署实战
3.1 模型下载与加载
# 根据硬件选择模型版本(7B为通用型)
ollama pull deepseek-r1:7b
# 启动模型服务
ollama run deepseek-r1:7b
模型版本指南 6:
- 1.5B版:文本生成/轻量任务(8GB内存)
- 7B版:代码生成/逻辑推理(推荐配置)
- 32B版:复杂语义理解(需24GB显存)
3.2 可视化交互界面
OpenWebUI部署流程(推荐方案)
Docker环境准备
# 安装Docker Desktop后验证
docker run hello-world
# 预期输出:Hello from Docker!...
容器化部署
# 带GPU加速的部署命令(需NVIDIA驱动)
docker run -d --gpus all -p 3000:8080 \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name deepseek-webui \
ghcr.io/open-webui/open-webui:main
界面验证
- 浏览器访问
http://localhost:3000
- 首次登录需创建账号(本地使用建议关闭注册)
- 在设置 → 模型服务 中选择Ollama连接方式