基于华为开发者空间云主机——5分钟让华为云主机加持 DeepSeek

最新案例动态,请查阅基于华为开发者空间云主机——5分钟让华为云主机加持 DeepSeek。小伙伴们快来领取华为开发者空间进行实操吧!

1 概述

1.1 案例介绍

华为开发者空间,是为全球开发者打造的专属开发者空间,致力于为每位开发者提供一台云主机、一套开发工具和云上存储空间,汇聚昇腾、鸿蒙、鲲鹏、GaussDB、欧拉等华为各项根技术的开发工具资源,并提供配套案例指导开发者 从开发编码到应用调测,基于华为根技术生态高效便捷的知识学习、技术体验、应用创新。

免费领取开发者空间云主机

PC端

移动端

本案例演示如何在华为开发者空间云主机上,一步步完成Open WebUI环境搭建及 DeepSeek模型接入,并进行简单的文本生成任务。

1.2 适用对象

  • 企业研发团队

  • AI/ML 爱好者

  • 高校师生

1.3 案例时间

本案例总时长预计60分钟。

1.4 案例流程

说明:

  1. 打开华为开发者空间云主机;

  2. 安装并启动Ollama模型服务;

  3. 安装Open WebUI;

  4. 使用Ollama部署DeepSeek模型;

  5. 通过Open WebUI使用DeepSeek进行聊天交互。

1.5 资源总览

本案例预计花费0元。

| 资源名称 | 规格 | 单价(元) | 时长(分钟) |

| 开发者空间–云主机 | 4 vCPUs 8 GB Ubuntu 24.04 Server 定制版 | 0 | 60 |

2 环境配置

2.1 开发者空间配置

面向广大开发者群体,华为开发者空间提供一个随时访问的“开发桌面云主机”、丰富的“预配置工具集合”和灵活使用的“场景化资源池”,开发者开箱即用,快速体验华为根技术和资源。

如果还没有领取开发者空间云主机,可以参考免费领取云主机文档领取。

领取云主机后可以直接进入华为开发者空间工作台界面,点击打开云主机 > 进入桌面连接云主机。

2.2 安装 Ollama

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。

# 安装Ollama脚本
curl -fsSL https://dtse-mirrors.obs.cn-north-4.myhuaweicloud.com/case/0035/install.sh | sudo bash

设置并启动Ollama服务。

sudo systemctl enable ollama

sudo systemctl start ollama

接下来可以根据需要,借助 Ollama 工具来部署大模型。

2.3 安装Open WebUI

打开云主机命令行窗口输入以下命令,更新软件包。

sudo apt update

sudo apt upgrade -y

卸载旧版本Docker(如果已安装)。

sudo apt-get remove docker docker-engine docker.io containerd runc

安装必要的依赖。

sudo apt install apt-transport-https ca-certificates curl software-properties-common

添加Docker的官方GPG密钥。(如果云主机已安装dokcer,且操作上一步卸载再安装,执行该步骤第一次会报找不到OpenPGP,须再次执行)

sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -

添加Docker的APT源。

sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"

更新APT包索引。

sudo apt update

安装Docker CE。

sudo apt install docker-ce

验证Docker是否安装成功。

sudo systemctl status docker

设置Docker自动启动。

sudo systemctl enable docker

安装 Open WebUI。

sudo docker pull ghcr.io/open-webui/open-webui:main

运行 Open WebUI 容器。

sudo docker run -d --network host -v open-webui:/app/backend/data --name open-webui --restart always -e OLLAMA_BASE_URL=http://localhost:11434 ghcr.io/open-webui/open-webui:main

大概等待两分钟,容器可以启动完成。

浏览器输入 localhost:8080,即可访问Open WebUI。

注:如果访问失败,可以输入下面命令查看日志。

# 查看容器状态

sudo docker ps -a | grep open-webui
# 检查日志

sudo docker logs open-webui

3 实战项目

3.1 使用Ollama部署DeepSeek模型

部署 deepseek-r1:1.5b 版本,执行 DeepSeek 的安装命令,安装完成后,DeepSeek 将自动运行。

ollama run deepseek-r1:1.5b

安装完成后,我们可以直接在终端里和 DeepSeek 进行交互。

ctrl + D退出Ollama。

3.2 通过Open WebUI使用DeepSeek进行聊天交互

浏览器输入localhost:8080,访问Open WebUI。

首次登录,需要创建管理员账号。登录后,界面如下:

向deepseek-r1模型提问,比如:“帮我写一个冒泡排序”。

可以看到模型自动回复成功。

以上就是DeepSeek-R1结合Open WebUI的使用。大家可以带着自己想要提问的问题,测试本次部署的应用。

开发者空间官网 开发者空间案例中心 开发者空间活动专题

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值