open-webui - 用户友好的 AI 界面

部署运行你感兴趣的模型镜像

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。

GitHub: https://github.com/open-webui/open-webui

更多AI开源软件:发现分享好用的AI工具、AI开源软件、AI模型、AI变现 - 小众AI

主要功能

  • 🚀 轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,通过支持和标记映像获得轻松体验。:ollama:cuda​
  • 🤝 **Ollama/OpenAI API 集成**:轻松集成与 OpenAI 兼容的 API,与 Ollama 模型一起进行多功能对话。自定义 OpenAI API URL 以与 **LMStudio、GroqCloud、Mistral、OpenRouter 等**链接。
  • 🛡️ **精细权限和用户组**:通过允许管理员创建详细的用户角色和权限,我们确保安全的用户环境。这种粒度不仅增强了安全性,还允许自定义用户体验,从而在用户中培养主人翁意识和责任感。
  • 📱 **响应式设计**:在台式 PC、笔记本电脑和移动设备上享受无缝体验。
  • 📱 **适用于移动设备的渐进式 Web 应用程序 (PWA):**使用我们的 PWA 在您的移动设备上享受类似应用程序的原生体验,在本地主机上提供离线访问和无缝用户界面。
  • ✒️🔢 **完整的 Markdown 和 LaTeX 支持**:通过全面的 Markdown 和 LaTeX 功能提升您的 LLM 体验,以丰富交互。
  • 🎤📹 **免提语音/视频通话**:通过集成的免提语音和视频通话功能体验无缝通信,从而实现更加动态和互动的聊天环境。
  • 🛠️ **模型生成器**:通过 Web UI 轻松创建 Ollama 模型。通过 Open WebUI Community 集成轻松创建和添加自定义角色/代理、自定义聊天元素和导入模型。
  • 🐍 **原生 Python 函数调用工具**:使用工具工作区中的内置代码编辑器支持增强您的 LLM。自带函数 (BYOF) 只需添加纯 Python 函数,即可实现与 LLM 的无缝集成。
  • 📚 本地 RAG 集成:通过开创性的检索增强生成 (RAG) 支持,深入了解聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到您的文档库中,在查询之前使用命令轻松访问它们。#​
  • 🔍 RAG 的 Web 搜索:使用 、、 等提供程序执行 Web 搜索,并将结果直接注入您的聊天体验。SearXNGGoogle PSEBrave SearchserpstackserperSerplyDuckDuckGoTavilySearchSearchApiBing​
  • 🌐 Web 浏览功能:使用命令后跟 URL 将网站无缝集成到您的聊天体验中。此功能允许您将 Web 内容直接合并到您的对话中,从而增强交互的丰富性和深度。#​
  • 🎨 **图像生成集成**:使用 AUTOMATIC1111 API 或 ComfyUI(本地)和 OpenAI 的 DALL-E(外部)等选项无缝整合图像生成功能,通过动态视觉内容丰富您的聊天体验。
  • ⚙️ **多个模型对话**:毫不费力地同时与各种模型互动,利用他们的独特优势来获得最佳响应。通过并行利用一组不同的模型来增强您的体验。
  • 🔐 **基于角色的访问控制 (RBAC):**确保使用受限权限进行安全访问;只有获得授权的个人才能访问您的 Ollama,并且为管理员保留独家模型创建/拉取权限。
  • 🌐🌍 **多语言支持**:通过我们的国际化 (i18n) 支持,以您的首选语言体验 Open WebUI。加入我们,扩展我们支持的语言!我们正在积极寻找贡献者!
  • 🧩 **Pipelines、Open WebUI 插件支持**:使用 Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。启动您的 Pipelines 实例,将 OpenAI URL 设置为 Pipelines URL,并探索无限可能。示例包括**函数调用**、用于控制访问**的用户速率限制**、使用 Langfuse 等工具**进行使用情况监控**、**使用 LibreTranslate** 进行实时翻译以提供多语言支持、**有害消息过滤**等等。

安装和使用

通过 Python pip 🐍 安装

Open WebUI 可以使用 Python 包安装程序 pip 进行安装。在继续之前,请确保您使用的是 **Python 3.11** 以避免兼容性问题。

  1. **安装 Open WebUI:** 打开终端并运行以下命令以安装 Open WebUI:

    pip install open-webui
    
  2. **运行 Open WebUI:** 安装后,您可以通过执行以下命令来启动 Open WebUI:

    open-webui serve
    

这将启动 Open WebUI 服务器,您可以在 http://localhost:8080

Docker 🐳 快速入门

注意

请注意,对于某些 Docker 环境,可能需要其他配置。如果您遇到任何连接问题,我们关于 Open WebUI 文档的详细指南已准备好为您提供帮助。

警告

使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 。此步骤至关重要,因为它可以确保您的数据库正确挂载并防止任何数据丢失。-v open-webui:/app/backend/data​

提示

如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议您使用带有 或 的官方图像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 Nvidia CUDA 容器工具包。:cuda:ollama​

使用默认配置安装
  • **如果 Ollama 在您的计算机上**,请使用以下命令:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
  • **如果 Ollama 位于其他服务器上**,请使用以下命令:
    要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URL​

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
  • **要运行支持 Nvidia GPU 的 Open WebUI**,请使用以下命令:

    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
    
安装仅用于 OpenAI API
  • **如果您只使用 OpenAI API**,请使用以下命令:

    docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
安装带有捆绑 Ollama 支持的 Open WebUI

此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令简化设置。根据您的硬件设置选择合适的命令:

  • **支持 GPU**: 通过运行以下命令来利用 GPU 资源:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    
  • **仅适用于 CPU**: 如果您未使用 GPU,请改用以下命令:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    

这两个命令都有助于 Open WebUI 和 Ollama 的内置轻松安装,确保您可以快速启动并运行所有内容。

安装后,您可以访问 Open WebUI at http://localhost:3000。享受!😄

其他安装方法

我们提供各种安装选项,包括非 Docker 原生安装方法、Docker Compose、Kustomize 和 Helm。请访问我们的 Open WebUI 文档或加入我们的 Discord 社区以获取全面指导。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值