本次部署DeepSeek是基于华为云主机上完成
先送上免费领取开发者空间云主机的链接
这台云主机有什么用呢,这次给大家演示一下如何在华为开发者空间云主机上,一步步完成 Open WebUI 环境搭建及 DeepSeek 模型接入,并进行简单的文本生成任务。
1.2 部署流程
- 打开华为开发者空间云主机
- 安装并启动 Ollama 模型服务
- 安装 Open WebUI
- 使用 Ollama 部署 DeepSeek 模型
- 通过 Open WebUI 使用 DeepSeek 进行聊天交互
1.3 资源总览
资源名称 | 规格 | 单价(元) | 时长(分钟) |
---|---|---|---|
开发者空间–云主机 | 4 vCPUs 8 GB Ubuntu 24.04 Server 定制版 | 0 | 60 |
Linux 版 Open WebUI | Docker镜像 | 0 | — |
Ollama 本地模型服务 | DeepSeek-R1(本地部署) | 0 | — |
本地文档(任意格式) | Markdown/Word/PDF … | 0 | — |
2 环境配置
2.1 开发者空间
点击 进入开发者空间
点击我的云主机,选择“打开云主机”,并进入桌面。云主机默认系统为 Ubuntu 24.04 Server 定制版。
2.2 安装 Ollama
Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。
# 安装 Ollama 脚本
curl -fsSL https://dtse-mirrors.obs.cn-north-4.myhuaweicloud.com/case/0035/install.sh | sudo bash
设置并启动 Ollama 服务。
sudo systemctl enable ollama
sudo systemctl start ollama
接下来可以根据需要,借助 Ollama 工具来部署大模型。
2.3 安装 Open WebUI
打开云主机命令行窗口输入以下命令,更新软件包。
sudo apt update
sudo apt upgrade -y
卸载旧版本Docker(如果已安装)。
sudo apt-get remove docker docker-engine docker.io containerd runc
安装必要的依赖。
sudo apt install apt-transport-https ca-certificates curl software-properties-common
添加Docker的官方GPG密钥。
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
添加Docker的APT源。
sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"
更新APT包索引。
sudo apt update
安装Docker CE。
sudo apt install docker-ce
验证Docker是否安装成功。
sudo systemctl status docker
设置Docker自动启动。
sudo systemctl enable docker
安装 Open WebUI。
sudo docker pull ghcr.io/open-webui/open-webui:main
运行 Open WebUI 容器。
sudo docker run -d --network host -v open-webui:/app/backend/data --name open-webui --restart always -e OLLAMA_BASE_URL=http://localhost:11434 ghcr.io/open-webui/open-webui:main
大概等待两分钟,容器可以启动完成。
浏览器输入 localhost:8080
,即可访问 Open WebUI。
如果访问失败,可以输入下面命令查看日志。
# 查看容器状态
sudo docker ps -a | grep open-webui
# 检查日志
sudo docker logs open-webui
3 实战项目
3.1 使用 Ollama 部署 DeepSeek 模型
部署 deepseek-r1:1.5b 版本,执行 DeepSeek 的安装命令,安装完成后,DeepSeek 将自动运行。
ollama run deepseek-r1:1.5b
安装完成后,我们可以直接在终端里和 DeepSeek 进行交互。
ctrl + D
退出 Ollama。
3.2 通过 Open WebUI 使用 DeepSeek 进行聊天交互
浏览器输入 localhost:8080
,访问 Open WebUI。
首次登录,需要创建管理员账号。登录后,界面如下:
向deepseek-r1模型提问,比如:“帮我写一个冒泡排序”。
可以看到模型自动回复成功。
以上就是 DeepSeek-R1 结合 Open WebUI 的使用。大家可以带着自己想要提问的问题,测试本次部署的应用。