本案例由开发者:云聪明提供
1 概述
1.1 案例介绍
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。Ollama能快速启动和部署热门大模型。如: DeepSeek-R1、Gemma 2 、Qwen2.5,具备优点:方便,本地化运行,完全离线,支持 macOS、Linux 和 Windows,无需复杂配置,一键安装即可使用。
通过实际操作,让大家深入了解如何利用Ollama部署运行大模型和通过Open WebUI搭建的前端对话网页。
1.2 适用对象
- 企业
- 个人开发者
- 高校学生
1.3 案例时间
本案例总时长预计40分钟。
1.4 案例流程
{{{width="60%" height="auto"}}} 说明:
- 免费领取开发者空间云主机;
- 登录云主机,安装Ollama并部署DeepSeek模型;
- 在云主机安装Docker环境;
- 使用Docker部署Open WebUI并体验对话网页。
1.5 资源总览
| 资源名称 | 规格 | 单价(元) | 时长(分钟) |
|---|---|---|---|
| 开发者空间—云主机 | ARM | 4 vCPUs | 8 GiB | Ubuntu | 0 | 40 |
2 基于Open WebUI部署大模型对话网页
2.1 开发者空间配置
面向广大开发者群体,华为开发者空间提供一个随时访问的“开发桌面云主机”、丰富的“预配置工具集合”和灵活使用的“场景化资源池”,开发者开箱即用,快速体验华为根技术和资源。
如果还没有领取开发者空间云主机,可以参考免费领取云主机文档领取。
领取云主机后可以直接进入华为开发者空间工作台界面,点击打开云主机 > 进入桌面连接云主机。

2.2 安装Ollama并部署DeepSeek
Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。
在云主机桌面右键选择“Open Terminal Here”,打开命令终端窗口。

执行安装命令如下:
方式一(推荐,安装速度快):
curl -fsSL https://dtse-mirrors.obs.cn-north-4.myhuaweicloud.com/case/0035/install.sh | sudo bash

方式二(备用,耗时较久、失败频率较高):
curl -fsSL https://ollama.com/install.sh | sh
接下来可以借助 Ollama 工具来部署 Deepseek 大模型,部署 deepseek-r1:1.5b 版本,执行命令:
ollama run deepseek-r1:1.5b

部署的时间长短依赖于网络的情况,部署完成后,我们就可以与 Deepseek 大模型进行对话了:

(* 由于规格限制,部署的模型较小,会有回答准确度不高的情况)
2.3 安装Docker
更新软件包列表。
sudo apt update
sudo apt upgrade

安装Docker必要的依赖。
sudo apt install apt-transport-https ca-certificates curl software-properties-common

添加Docker的官方GPG密钥。
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
设置稳定的仓库。
sudo add-apt-repository "deb [arch=arm64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"

再次更新包列表。
sudo apt update
安装Docker CE。
sudo apt install docker-ce docker-ce-cli containerd.io

启动Docker并设置为开机启动。
sudo systemctl start docker
sudo systemctl enable docker

2.4 部署Open WebUI
首先第一步拉取Open WebUI 镜像,使用如下命令。
sudo docker pull ghcr.io/open-webui/open-webui:main
查看下载的镜像。
sudo docker images

启动容器。
sudo docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 -e ENABLE_OPENAI_API=false --name open-webui ghcr.io/open-webui/open-webui:main
参数说明:
-
docker run
Docker 的核心命令,用于创建并启动一个新容器。
-
-d(Detached 模式)
让容器在后台运行,不占用当前终端窗口。
-
--network=host
容器直接使用宿主机的网络堆栈,与宿主机共享 IP 地址和端口。这意味着容器内的服务可以通过 127.0.0.1 直接访问宿主机本地的服务(如 Ollama),无需端口映射。
-
-v open-webui:/app/backend/data
将 Docker 管理的名为 open-webui 的持久化存储卷挂载到容器内的 /app/backend/data 目录,确保应用数据(如用户配置、缓存等)在容器重启后不丢失。
-
-e OLLAMA_BASE_URL=http://127.0.0.1:11434
设置环境变量,指定 Open WebUI 连接的 Ollama 服务的地址。指向宿主机本地(127.0.0.1)的 11434 端口。
-
-e ENABLE_OPENAI_API=false
允许使用 OpenAI API(值为True),否则禁止使用OpenAI API(false)。
这里需要禁用 OpenAI 服务调用。国内无法访问 OpenAI 的网络环境,必须将此值设为 false,否则应用在登录阶段会因尝试连接 OpenAI 接口超时而卡顿,导致界面长时间无响应。
具体描述:ENABLE_OPENAI_API : https://docs.openwebui.com/getting-started/env-configuration#enable_openai_api
-
--name open-webui
为容器分配一个易识别的名称 open-webui,便于后续通过 docker start/stop/open-webui 等命令管理容器。
-
ghcr.io/open-webui/open-webui:main
指定使用的容器镜像来源:GitHub Container Registry(ghcr.io)中 open-webui 项目的 main 标签镜像,通常代表最新开发版或主分支构建版本。
环境参数文档:https://docs.openwebui.com/getting-started/env-configuration
容器运行成功。

查看容器的运行状态。
sudo docker ps

在打开火狐浏览器,输入http://127.0.0.1:8080打开Open WebUI。

点击开始使用,设置名称为admin(名称可以自定义)电子邮箱和密码,点击创建管理员账号。

由于我们已经提前在docker的启动参数中指定Ollama的地址,所以Open WebUI直接连接上了Ollama,我们可以直接开始问问题啦。

至此,开发者空间部署Open WebUI大模型对话网页案例内容全部完成。
6万+

被折叠的 条评论
为什么被折叠?



