Open-WebUI 下载及使用全攻略,轻松上手无压力!

Open WebUI 是一个开源的大语言模型(LLM)交互界面,支持本地部署与离线运行。通过它,用户能在类似 ChatGPT 的网页界面中,直接操作本地运行的 Ollama 等大语言模型工具。接下来为大家详细介绍其下载和使用方法。​

一、安装前的准备工作​

  • Python 3.11:这是必须严格使用的版本,更高版本可能会出现不兼容问题。可访问Python 官网下载 Python 3.11.9 安装包,安装时务必勾选 “Add Python 3.11 to PATH”,安装完成后在命令行输入python --version验证,出现版本信息即安装成功。​
  • Node.js 20.x 及以上:用于前端依赖管理。从Node.js 中文网下载最新 LTS 版本(如 20.12.2),安装完成后在命令行输入node -v && npm -v验证。​
  • Ollama:若要使用 Ollama 模型,需提前安装并运行 Ollama。安装教程可参考相关文章 。​

二、Open WebUI 的安装​

打开 cmd 窗口,输入:pip install open-webui ,等待一段时间自动安装完成。安装过程中注意不要使用 python3.11 以上的版本,否则可能出现不兼容问题。当看到相关安装成功提示界面,即表示安装完成。​

三、运行 Open WebUI 并连接 Ollama​

  1. 启动 Open WebUI:在 cmd 窗口输入open-webui serve 。​
  1. 访问 Open WebUI:启动后,在浏览器输入默认访问地址:http://localhost:8080 。若需自定义数据存储路径,可在相关设置中进行调整。​
  1. 设置中文界面:登录后,在右上角设置中选择 “简体中文”,提升使用体验。​
  1. 选择模型:进入网站后,在右上角选择本地已安装的大模型,如 deepseek - r1.5 等,选择之后就可以进行对话了。​
  1. 模型文件存储路径优化:通过环境变量OLLAMA_MODELS将模型文件迁移至非系统盘(如D:\ollama_models),避免 C 盘空间被大量占用。​
  1. 端口冲突处理:若 8080 端口被占用,可通过--port参数指定其他端口,如open-webui serve --port 8090 。​

除了上述通过 Python pip 安装的方式外,Open WebUI 还支持 Docker 安装等其他方式:​

  • Docker 安装:推荐使用带有:cuda或:ollama标签的官方镜像。需根据 Ollama 是否在本地以及是否需要 GPU 支持选择不同的命令,关键是要挂载数据卷-v open - webui:/app/backend/data以防止数据丢失,具体命令可参考GitHub 页面中的详细说明。如果 Ollama 在不同的服务器上,需要设置OLLAMA_BASE_URL环境变量。​
  • Docker Compose、Kustomize 和 Helm 安装:更多安装方法可参考Open WebUI 文档。​

通过以上步骤,你就可以顺利下载并使用 Open WebUI,开启与本地大语言模型的便捷交互之旅了。赶紧动手试试吧!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值