在 Linux 系统本地部署 DeepSeek 大语言模型完整指南
一、DeepSeek 简介与部署价值
DeepSeek 是由国内团队开发的高性能开源大语言模型,其推理能力接近 GPT-4,尤其在数学、编程和逻辑推理任务中表现优异。本地部署的优势包括:
- 隐私保障:数据完全离线处理,避免敏感信息泄露。
- 零延迟响应:无需依赖云端服务器,提升交互效率。
- 灵活定制:支持模型微调和本地优化。
二、部署前的准备工作
-
硬件要求
模型版本 CPU 核心 内存 显存(GPU) 适用场景 1.5B 4核 8GB 可选 低配设备快速体验 7B/8B 8核 16GB 6GB+ 编程/文本生成 32B+ 16核 32GB+ 24GB+ 复杂推理任务 (参考硬件配置表) -
系统环境
- 推荐 Ubuntu 22.04 LTS 或 CentOS 8+
- 安装
curl
和wget
工具:sudo apt update && sudo apt install curl wget -y
三、安装 Ollama 框架
Ollama 是专为本地运行大模型设计的开源工具,支持一键部署 DeepSeek 等模型。
方法 1:官方脚本安装
下载安装脚本
curl -fsSL https://ollama.com/install.sh | sh
验证安装
ollama --version
方法 2:手动加速安装(针对网络问题)
替换 GitHub 下载地址为加速源
export OLLAMA_URL="https://ghproxy.com/https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64"
下载并安装
wget $OLLAMA_URL -O ollama
chmod +x ollama
sudo mv ollama /usr/local/bin/
(参考加速方案)
四、部署 DeepSeek 模型
- 拉取模型
根据硬件选择合适的版本:
轻量版(1.5B 参数)
ollama pull deepseek-r1:1.5b
高性能版(7B 参数)
ollama pull deepseek-r1:7b
- 启动模型服务
运行模型(后台模式)
ollama run deepseek-r1:7b
测试对话
>>> 你好,请写一段 Python 排序代码
- 文件存储路径
- 默认模型路径:
/usr/share/ollama/.ollama/models
可通过环境变量修改存储位置:export OLLAMA_MODELS="/mnt/ssd/models"
五、配置图形化界面(Chatbox)
-
下载 Chatbox
- 访问 下载 Linux 版 APPImage 文件。
-
连接 Ollama API
- 打开 Chatbox → 设置 → API 配置:
- API 类型:
Ollama
- 终端地址:
http://localhost:11434
- API 类型:
- 选择
deepseek-r1
作为默认模型。
- 打开 Chatbox → 设置 → API 配置:
六、高级配置技巧
-
开放远程访问
修改 Ollama 服务配置以支持远程调用:# 编辑服务文件 sudo systemctl edit ollama.service # 添加环境变量 [Service] Environment="OLLAMA_HOST=0.0.0.0:11434" # 重启服务 sudo systemctl restart ollama
-
多模型管理
# 查看已安装模型 ollama list # 删除旧模型 ollama rm deepseek-r1:1.5b
七、常见问题解决
-
端口冲突
修改默认端口号:OLLAMA_HOST=0.0.0.0:2233 ollama serve
-
显存不足
添加--num-gpu 1
参数限制 GPU 使用:ollama run deepseek-r1:7b --num-gpu 1
-
模型下载中断
Ollama 支持断点续传,重新执行ollama pull
即可。
八、应用场景示例
- 本地知识库问答:解析 TXT/PDF 文档(需配合 LangChain 工具链)
- 代码辅助开发:生成 Shell/Python 脚本片段
- 数据分析:输入 CSV 数据要求模型生成可视化建议
参考来源
- Ollama 服务配置与日志分析
- Ubuntu 系统部署实践
- 硬件选型与性能优化
- 网络加速与存储路径管理
通过本指南,您可以在 30 分钟内完成从环境准备到模型交互的全流程部署。建议优先体验 1.5B 轻量版模型,再根据需求升级硬件配置。