以下是基于 Windows 原生环境 和 WSL Linux 子系统 的零代码部署 DeepSeek + OpenWebUI 本地知识库的详细步骤对比指南,整合了多篇教程的核心流程:
一、环境准备
配置项 | WSL Linux 子系统 | 原生 Windows 系统 |
---|---|---|
操作系统 | Ubuntu 22.04 LTS(需启用 WSL2) | Windows 11 21H2 或更高版本 |
Python 版本 | Python 3.11+(推荐使用 apt install python3.11 ) | Python 3.11+(通过官网安装并配置 PATH) |
GPU 支持 | 需安装 NVIDIA CUDA on WSL | 直接安装 NVIDIA 驱动 和 CUDA Toolkit 12.3+ |
代理配置 | 在 WSL 终端执行:export http_proxy=http://<Windows_IP>:7890 (替换实际 IP 和端口) | 通过系统设置 → 网络 → 代理配置 |
二、部署 Ollama 服务
1. 安装 Ollama
-
WSL Linux curl -fsSL https://ollama.com/install.sh | sh # 自动安装
ollama serve & # 后台运行服务 -
Windows -
下载 Ollama Windows 安装包 -
双击安装后,以管理员权限运行 PowerShell: ollama serve
-
2. 加载 DeepSeek 模型
ollama run deepseek-r1:8b # 根据显存选择模型(8B 需约 12GB 显存)
-
验证模型: ollama run deepseek-r1:8b "生成快速排序代码" # 测试模型响应
三、部署 OpenWebUI
1. 安装依赖
-
WSL Linux sudo apt install nodejs npm python3-venv # 安装 Node.js 和 Python 虚拟环境
-
Windows -
安装 Node.js 20.x 并配置 PATH -
安装 Python 虚拟环境: python -m venv openwebui-env
-
2. 安装 OpenWebUI
pip install open-webui # 全局安装(推荐 WSL)或虚拟环境安装(Windows)
3. 启动服务
-
WSL Linux open-webui serve --host 0.0.0.0 --port 3000 # 允许外部访问
-
Windows open-webui serve --port 3000 # 默认绑定 127.0.0.1
-
访问地址: http://localhost:3000
(首次需注册管理员账号)
四、配置知识库
1. 关联 Ollama 模型
-
登录 OpenWebUI → Settings → Model -
选择 Ollama
后端,输入地址:-
WSL: http://localhost:11434
-
Windows: http://127.0.0.1:11434
-
-
保存后选择 deepseek-r1:8b
模型
2. 创建知识库
-
进入 Workspaces → Knowledge Base → + New -
上传文档(支持 PDF/TXT/Markdown) -
WSL 路径示例: /mnt/c/Users/Admin/Documents
(挂载 Windows 目录) -
Windows 路径示例: C:\Users\Admin\Documents
-
-
系统自动解析并向量化存储
3. 配置问答助手
-
返回 Workspaces → + New Assistant -
设置参数: -
Model: deepseek-r1:8b
-
Knowledge Base:勾选已创建的知识库 -
Retrieval Top K:5(控制引用片段数量)
-
五、验证与优化
1. 测试问答
提问示例:
"根据知识库文档,公司产品的核心技术是什么?"
病毒繁殖功能:支持病毒繁殖检测功能,帮助用户快速检测空气中的细菌、病毒等污染物。
超静音设计:支持超静音模式,降低房间噪音水平,适合长期使用环境。
2. 性能优化
优化项 | WSL Linux | Windows |
---|---|---|
嵌入模型 | 在 Settings → Documents 切换为 BGE-M3 (提升中文检索精度) | 同左 |
混合搜索 | 启用 BM25 + CrossEncoder 算法(提升相关性) | 同左 |
模型量化 | 加载 deepseek-r1:8b-q4 4-bit 量化版本(显存不足时使用) | 同左 |
六、跨系统差异处理
问题场景 | WSL 解决方案 | Windows 解决方案 |
---|---|---|
端口冲突 | 修改启动命令端口:open-webui serve --port 4000 | 同左 |
GPU 未识别 | 验证 CUDA on WSL:nvidia-smi ,更新 WSL 内核 | 通过 NVIDIA 控制面板检查驱动 |
中文文档乱码 | 安装中文字体:sudo apt install fonts-wqy-zenhei | 修改系统区域设置为中文(控制面板 → 区域) |
通过以上步骤,可在 零代码 条件下完成跨平台部署。推荐 WSL 环境获得更好的 Linux 工具链支持,而 Windows 原生部署更适合快速验证场景。
本文由 mdnice 多平台发布