如何快速搭建本地AI助手:Open WebUI完全指南——让LLM模型离线运行更简单
想拥有一个完全属于自己的AI助手,无需依赖云端服务,还能保护隐私?Open WebUI就是你的理想选择!这款开源的自托管WebUI工具,专为各种大型语言模型(LLM)运行器设计,支持Ollama和兼容OpenAI的API,让你轻松在本地部署和管理AI模型,享受安全、高效的智能对话体验。
🚀 什么是Open WebUI?核心功能亮点
Open WebUI是一个可扩展、功能丰富且用户友好的自托管WebUI,它最大的优势在于完全离线操作。无论是个人学习、家庭使用,还是小型团队协作,你都能通过它快速搭建起专属的AI交互平台,无需担心数据泄露,也不必依赖稳定的网络连接。

图:Open WebUI实际使用演示,展示与AI模型的流畅对话过程。
为什么选择Open WebUI?
- 离线优先:所有数据本地存储,保护隐私安全
- 多模型支持:兼容Ollama、OpenAI API等主流LLM运行器
- 简单易用:直观的界面设计,新手也能快速上手
- 高度可扩展:支持自定义工具、插件和知识库集成
📂 项目结构解析:轻松了解核心目录
虽然Open WebUI功能强大,但它的项目结构清晰易懂,主要分为以下几个核心部分:
1. 后端核心代码(backend/)
这是项目的“大脑”,包含了所有后端逻辑和服务配置:
backend/open_webui/main.py:应用主入口,负责启动服务和初始化backend/open_webui/config.py:全局配置文件,可自定义端口、数据库等参数backend/requirements.txt:项目依赖清单,安装时自动读取
2. 前端界面(src/)
用户直接交互的部分,采用现代化UI设计:
src/routes/:页面路由配置,管理不同功能模块的页面跳转src/lib/components/:可复用UI组件,如对话窗口、模型选择器等
3. 静态资源(static/)
存放图片、主题等资源文件:
static/assets/:图标、示例图片等素材static/themes/:内置主题样式,支持个性化界面
4. 部署与工具脚本(根目录)
简化安装和运行流程的实用工具:
docker-compose.yaml:Docker编排配置,一键启动服务run.sh:快速启动脚本,适合Linux/macOS用户run-ollama-docker.sh:配合Ollama容器运行的专用脚本

图:Open WebUI项目目录结构示意图,帮助用户快速定位核心文件。
🔧 快速开始:3步搭建你的本地AI助手
1. 准备工作
确保你的电脑已安装:
- Git(用于克隆代码)
- Docker和Docker Compose(推荐,简化部署)或Python 3.8+
2. 获取代码
打开终端,执行以下命令克隆项目:
git clone https://gitcode.com/GitHub_Trending/op/open-webui
cd open-webui
3. 启动服务
根据你的环境选择一种方式启动:
✅ 方式1:Docker一键启动(推荐)
./run-compose.sh
✅ 方式2:Python直接运行
cd backend
pip install -r requirements.txt
./start.sh
启动成功后,打开浏览器访问 http://localhost:8080,即可开始使用!
💡 新手小贴士
- 模型安装:首次使用需在设置中添加LLM模型(如通过Ollama安装Llama 3)
- 数据备份:重要对话可导出为PDF,路径:设置 > 数据管理 > 导出对话记录
- 主题切换:支持浅色/深色模式,在右上角头像 > 设置 > 外观中调整
📚 学习资源
- 官方文档:项目根目录下的
INSTALLATION.md和TROUBLESHOOTING.md - 常见问题:遇到启动失败等问题,可先查看
TROUBLESHOOTING.md中的解决方案 - 社区支持:通过项目Issue区提问,开发者和热心用户会提供帮助

图:Open WebUI设置界面示例,可在此配置模型、主题和数据管理选项。
🎯 总结
Open WebUI为想要体验本地AI的用户提供了简单、安全、高效的解决方案。无论你是AI爱好者、学生,还是需要保护数据隐私的专业人士,都能通过它轻松搭建起自己的AI助手。现在就动手试试,开启你的离线智能对话之旅吧!
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



