【案例共创】基于开发者空间部署Open WebUI大模型对话网页

本案例由开发者:云聪明提供

1 概述

1.1 案例介绍

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。Ollama能快速启动和部署热门大模型。如: DeepSeek-R1、Gemma 2 、Qwen2.5,具备优点:方便,本地化运行,完全离线,支持 macOS、Linux 和 Windows,无需复杂配置,一键安装即可使用。

通过实际操作,让大家深入了解如何利用Ollama部署运行大模型和通过Open WebUI搭建的前端对话网页。

1.2 适用对象

  • 企业
  • 个人开发者
  • 高校学生

1.3 案例时间

本案例总时长预计40分钟。

1.4 案例流程

2538c9179d086f9ba97c8ea1d252d726.png{{{width="60%" height="auto"}}} 说明:

  1. 免费领取开发者空间云主机;
  2. 登录云主机,安装Ollama并部署DeepSeek模型;
  3. 在云主机安装Docker环境;
  4. 使用Docker部署Open WebUI并体验对话网页。

1.5 资源总览

资源名称规格单价(元)时长(分钟)
开发者空间—云主机ARM | 4 vCPUs | 8 GiB | Ubuntu040

2 基于Open WebUI部署大模型对话网页

2.1 开发者空间配置

面向广大开发者群体,华为开发者空间提供一个随时访问的“开发桌面云主机”、丰富的“预配置工具集合”和灵活使用的“场景化资源池”,开发者开箱即用,快速体验华为根技术和资源。

如果还没有领取开发者空间云主机,可以参考免费领取云主机文档领取。

领取云主机后可以直接进入华为开发者空间工作台界面,点击打开云主机 > 进入桌面连接云主机。

a1aae6ff53aac98855ef597dd6899967.png 552fc96c3b58a06e294e4a760ae719e3.PNG

2.2 安装Ollama并部署DeepSeek

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。

在云主机桌面右键选择“Open Terminal Here”,打开命令终端窗口。

bf555376d6c0da2d00ca6f365882aaac.png

执行安装命令如下:

方式一(推荐,安装速度快):

curl -fsSL https://dtse-mirrors.obs.cn-north-4.myhuaweicloud.com/case/0035/install.sh | sudo bash

920c5ac100bd0ba680db539af607fbf2.png

方式二(备用,耗时较久、失败频率较高):

curl -fsSL https://ollama.com/install.sh | sh

接下来可以借助 Ollama 工具来部署 Deepseek 大模型,部署 deepseek-r1:1.5b 版本,执行命令:

ollama run deepseek-r1:1.5b

c871b359baea43fdaae99583f5a052f3.png

部署的时间长短依赖于网络的情况,部署完成后,我们就可以与 Deepseek 大模型进行对话了:

d4dd412c6e181a27880b12eb983f92f3.png

(* 由于规格限制,部署的模型较小,会有回答准确度不高的情况)

2.3 安装Docker

更新软件包列表。

sudo apt update
sudo apt upgrade

dc000f0262a88ef64d84e1834a893889.png

安装Docker必要的依赖。

sudo apt install apt-transport-https ca-certificates curl software-properties-common

6a07cc5447aeacacb47d38a6b0f85c34.png

添加Docker的官方GPG密钥。

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -

4ab1809e4e3180caa92abcf23b361d04.png 设置稳定的仓库。

sudo add-apt-repository "deb [arch=arm64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"

05b97f6233c2242703f6aff2dd9c5226.png

再次更新包列表。

sudo apt update

安装Docker CE。

sudo apt install docker-ce docker-ce-cli containerd.io

072b7f8de13fba0032c7077c1ede1e71.png

启动Docker并设置为开机启动。

sudo systemctl start docker
sudo systemctl enable docker

8ae61514127abbef25a38fa847672e68.png

2.4 部署Open WebUI

首先第一步拉取Open WebUI 镜像,使用如下命令。

sudo docker pull ghcr.io/open-webui/open-webui:main

7870cd56ccfb489915a30c964a7fdecb.png 查看下载的镜像。

sudo docker images

3bb03a05e13bfca2590896191cbbfcb4.png

启动容器。

sudo docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 -e ENABLE_OPENAI_API=false --name open-webui ghcr.io/open-webui/open-webui:main

参数说明:

  1. docker run

    Docker 的核心命令,用于创建并启动一个新容器。

  2. -d(Detached 模式)

    让容器在后台运行,不占用当前终端窗口。

  3. --network=host

    容器直接使用宿主机的网络堆栈,与宿主机共享 IP 地址和端口。这意味着容器内的服务可以通过 127.0.0.1 直接访问宿主机本地的服务(如 Ollama),无需端口映射。

  4. -v open-webui:/app/backend/data

    将 Docker 管理的名为 open-webui 的持久化存储卷挂载到容器内的 /app/backend/data 目录,确保应用数据(如用户配置、缓存等)在容器重启后不丢失。

  5. -e OLLAMA_BASE_URL=http://127.0.0.1:11434

    设置环境变量,指定 Open WebUI 连接的 Ollama 服务的地址。指向宿主机本地(127.0.0.1)的 11434 端口。

  6. -e ENABLE_OPENAI_API=false

    允许使用 OpenAI API(值为True),否则禁止使用OpenAI API(false)。

这里需要禁用 OpenAI 服务调用。国内无法访问 OpenAI 的网络环境,必须将此值设为 false,否则应用在登录阶段会因尝试连接 OpenAI 接口超时而卡顿,导致界面长时间无响应。

具体描述:ENABLE_OPENAI_API : https://docs.openwebui.com/getting-started/env-configuration#enable_openai_api

  • --name open-webui

    为容器分配一个易识别的名称 open-webui,便于后续通过 docker start/stop/open-webui 等命令管理容器。

  • ghcr.io/open-webui/open-webui:main

    指定使用的容器镜像来源:GitHub Container Registry(ghcr.io)中 open-webui 项目的 main 标签镜像,通常代表最新开发版或主分支构建版本。

环境参数文档:https://docs.openwebui.com/getting-started/env-configuration

容器运行成功。

df762cb56d749508f45d50e8328f682b.png

查看容器的运行状态。

sudo docker ps

52af740c3331f08c49ccd666e9c332da.png

在打开火狐浏览器,输入http://127.0.0.1:8080打开Open WebUI

8c82734cfe825a137912559322045f5e.png

点击开始使用,设置名称为admin(名称可以自定义)电子邮箱和密码,点击创建管理员账号

49fcfd89b3bbf5164dd6354db5861b0e.png

由于我们已经提前在docker的启动参数中指定Ollama的地址,所以Open WebUI直接连接上了Ollama,我们可以直接开始问问题啦。

59c01ba2c1172ee13a4f91b4d1d6df7a.png

至此,开发者空间部署Open WebUI大模型对话网页案例内容全部完成。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值