5 分钟教你在华为云主机上部署 DeepSeek

本次部署DeepSeek是基于华为云主机上完成

先送上免费领取开发者空间云主机的链接

PC端 点击领取
移动端 点击领取

这台云主机有什么用呢,这次给大家演示一下如何在华为开发者空间云主机上,一步步完成 Open WebUI 环境搭建及 DeepSeek 模型接入,并进行简单的文本生成任务。

1.2 部署流程

  • 打开华为开发者空间云主机
  • 安装并启动 Ollama 模型服务
  • 安装 Open WebUI
  • 使用 Ollama 部署 DeepSeek 模型
  • 通过 Open WebUI 使用 DeepSeek 进行聊天交互

1.3 资源总览

资源名称规格单价(元)时长(分钟)
开发者空间–云主机4 vCPUs 8 GB Ubuntu 24.04 Server 定制版060
Linux 版 Open WebUIDocker镜像0
Ollama 本地模型服务DeepSeek-R1(本地部署)0
本地文档(任意格式)Markdown/Word/PDF …0

2 环境配置

2.1 开发者空间

点击 进入开发者空间

在这里插入图片描述

点击我的云主机,选择“打开云主机”,并进入桌面。云主机默认系统为 Ubuntu 24.04 Server 定制版。

在这里插入图片描述

2.2 安装 Ollama

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。

# 安装 Ollama 脚本
curl -fsSL https://dtse-mirrors.obs.cn-north-4.myhuaweicloud.com/case/0035/install.sh | sudo bash

在这里插入图片描述

设置并启动 Ollama 服务。

sudo systemctl enable ollama
sudo systemctl start ollama

在这里插入图片描述

接下来可以根据需要,借助 Ollama 工具来部署大模型。

2.3 安装 Open WebUI

打开云主机命令行窗口输入以下命令,更新软件包。

sudo apt update
sudo apt upgrade -y

在这里插入图片描述

卸载旧版本Docker(如果已安装)。

sudo apt-get remove docker docker-engine docker.io containerd runc

安装必要的依赖。

sudo apt install apt-transport-https ca-certificates curl software-properties-common

在这里插入图片描述

添加Docker的官方GPG密钥。

sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -

在这里插入图片描述

添加Docker的APT源。

sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"

在这里插入图片描述

更新APT包索引。

sudo apt update

在这里插入图片描述

安装Docker CE。

sudo apt install docker-ce

在这里插入图片描述

验证Docker是否安装成功。

sudo systemctl status docker

在这里插入图片描述

设置Docker自动启动。

sudo systemctl enable docker

在这里插入图片描述

安装 Open WebUI。

sudo docker pull ghcr.io/open-webui/open-webui:main

在这里插入图片描述

运行 Open WebUI 容器。

sudo docker run -d --network host -v open-webui:/app/backend/data --name open-webui --restart always -e OLLAMA_BASE_URL=http://localhost:11434 ghcr.io/open-webui/open-webui:main

在这里插入图片描述

大概等待两分钟,容器可以启动完成。

浏览器输入 localhost:8080,即可访问 Open WebUI。

如果访问失败,可以输入下面命令查看日志。

# 查看容器状态
sudo docker ps -a | grep open-webui

# 检查日志
sudo docker logs open-webui

3 实战项目

3.1 使用 Ollama 部署 DeepSeek 模型

部署 deepseek-r1:1.5b 版本,执行 DeepSeek 的安装命令,安装完成后,DeepSeek 将自动运行。

ollama run deepseek-r1:1.5b

安装完成后,我们可以直接在终端里和 DeepSeek 进行交互。

在这里插入图片描述

ctrl + D 退出 Ollama。

3.2 通过 Open WebUI 使用 DeepSeek 进行聊天交互

浏览器输入 localhost:8080,访问 Open WebUI。

首次登录,需要创建管理员账号。登录后,界面如下:

在这里插入图片描述

向deepseek-r1模型提问,比如:“帮我写一个冒泡排序”。

在这里插入图片描述

可以看到模型自动回复成功。

以上就是 DeepSeek-R1 结合 Open WebUI 的使用。大家可以带着自己想要提问的问题,测试本次部署的应用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值