Open WebUI + Ollama 部署LLM大模型,实战教程

Open WebUI地址:https://github.com/open-webui/open-webui

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管网页用户界面(WebUI),设计旨在完全离线运行。它支持多种大型语言模型(LLM)运行器,包括 Ollama 和兼容 OpenAI 的 API。以下是 Open WebUI 的主要特点:

主要功能
  • 简便安装:通过 Docker 或 Kubernetes(支持 kubectl、kustomize 和 helm)实现无缝安装,支持 :ollama 和 :cuda 标签的镜像,确保轻松上手。
  • Ollama/OpenAI API 集成:轻松集成兼容 OpenAI 的 API,支持与 Ollama 模型进行多样化对话。可自定义 OpenAI API URL,链接 LMStudio、GroqCloud、Mistral、OpenRouter 等平台。
  • 插件支持与流水线:利用 Pipelines 插件框架,将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。支持功能调用、用户速率限制、使用
### 配置 OpenWebUI 使用 Ollama 端口 为了使 OpenWebUI 能够使用 Ollama 的特定功能并正确连接到所需的端口,在 Windows 上进行本地安装而不依赖 Docker 是一种可行的方法。此过程涉及设置环境变量以及调整应用程序的配置文件来确保兼容性和性能优化。 #### 设置环境变量 对于不需要 Docker 容器的情况,可以通过设定 `HF_HUB_OFFLINE` 环境变量为 `1` 来指示系统处于离线模式下运行[^3]。这一步骤有助于解决可能遇到的一些网络相关的问题,并允许应用从本地资源加载必要的组件而不是尝试联网获取它们。 #### 修改配置文件 当不采用 Docker 方式部署时,则需手动编辑 OpenWebUIOllama配置文件以指定正确的通信端口号和其他参数。通常情况下,默认监听的是 80 或者 443 这样的标准 HTTP(S) 端口;然而,如果要让两者协同工作在一个非默认端口上(比如这里的例子提到的 3000),就需要相应修改这些服务启动时所使用的端口选项[^2]。 具体来说: - 对于 **OpenWebUI** ,可以在其根目录下的 `.env` 文件中定义 API_SERVER_PORT 变量指向目标端口; - 关于 **Ollama**, 如果有单独的服务进程的话, 应该查看官方文档找到对应版本支持的方式去更改它的工作端口。 #### 启动服务 完成上述准备工作之后,按照正常流程启动两个程序即可实现集成效果。注意观察日志输出确认二者之间能否顺利建立联系并且互相发送请求响应数据流。 ```bash # 假设已经完成了所有前置条件准备, # 下面是在命令行界面执行启动操作的例子 cd path\to\your\openwebui npm start # 或 python app.py 等取决于项目实际构建方式 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值