1 概述
1.1 背景介绍
DeepSeek 是一家创新型科技公司,长久以来专注于开发先进的大语言模型(LLM)和相关技术。该公司推出了比较出名的模型有 DeepSeek-V3 和 DeekSeek-R1。DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
通过实际操作,让大家熟悉如何通过云主机部署DeepSeek,搭建自己的专属服务,不需要再出现打开DeepSeek时屏幕上弹出“服务器繁忙”的问题。只需要简单几步即可完成部署,轻松搞定,小白也能上手哦!
1.2 适用对象
- 企业
- 个人开发者
- 高校学生
1.3 案例时间
本案例总时长预计60分钟。
1.4 案例流程
{{{width="40%" height="auto"}}}
说明:
① 云主机安装Ollama; ② 使用Ollama部署DeepSeek; ③ ChatBox集成DeepSeek; ④ CodeArts IDE集成DeepSeek。
1.5 资源总览
本案例预计花费总计0元。
| 资源名称 | 规格 | 单价(元) | 时长(分钟) |
|---|---|---|---|
| 云主机 | ARM | 4C8G | Ubuntu 或 X86 | 2C4G | Ubuntu | 免费 | 60 |
2 操作步骤
2.1 安装Ollama
Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。
在云主机桌面右键选择“Open Terminal Here”,打开命令终端窗口。 
执行安装命令如下: 方式一(推荐,安装速度快):
curl -fsSL https://dtse-mirrors.obs.cn-north-4.myhuaweicloud.com/case/0035/install.sh | sudo bash

方式二(备用,耗时较久、失败频率较高):
curl -fsSL https://ollama.com/install.sh | sh

2.2 部署DeepSeek
接下来可以借助 Ollama 工具来部署 Deepseek 大模型,部署 deepseek-r1:1.5b 版本,执行命令:
ollama run deepseek-r1:1.5b
部署的时间长短依赖于网络的情况,部署完成后,我们就可以与 Deepseek 大模型进行对话了:
(* 由于规格限制,部署的模型较小,会有回答准确度不高的情况)
2.3 安装ChatBox
通过 Ollama 部署 Deepseek 模型之后,由于是在终端窗口,交互体验相对较为简洁和不够直观,长时间的对话可能会让操作变得不够流畅。为了更方便地与模型进行对话,可以使用可视化的聊天项目,例如 Open WebUI、ChatBox 等。通过这些工具,能够获得更加直观和流畅的交互体验。这里我们通过 ChatBox 使用 Deepseek。
在云主机使用火狐浏览器下载ChatBox: https://chatboxai.app/zh 。打开Chatboxai主页,点击“更多选项”进入到开始使用界面进行安装包下载。 
下载之前,首先查看自己云主机的CPU架构类型,不同类型对应的下载内容和安装方法各有不同。 - X86类型 如下图所示,在开发者空间工作台我的云主机中点击更多,选择配置信息,查看云主机的CPU架构,如X86。
下载64-bit类型镜像文件。
(* 注意:官方镜像文件会不断迭代,执行以下命令时请以下载的具体镜像文件版本为准!) 打开下载文件所在目录,单击鼠标右键,选择打开终端命令窗口,执行以下命令给文件赋予权限。
sudo chmod +x Chatbox-1.9.8-x86_64.AppImage
安装libfuse.so.2库。
sudo apt install libfuse2
运行文件。
./Chatbox-1.9.8-x86_64.AppImage
- ARM类型 如下图所示,在开发者空间工作台我的云主机中点击更多,选择配置信息,查看云主机的CPU架构,如ARM。
下载ARM类型镜像文件。
(* 注意:官方镜像文件会不断迭代,执行以下命令时请以下载的具体镜像文件版本为准!) 打开下载文件所在目录,单击鼠标右键,选择打开终端命令窗口,执行以下命令给文件赋予权限。
sudo chmod +x Chatbox-1.9.8-arm64.AppImage
安装zlib 库。
sudo apt update
sudo apt install zlib1g zlib1g-dev
安装libfuse.so.2库。
sudo apt install libfuse2
运行文件,运行应用时禁用沙盒。
./Chatbox-1.9.8-arm64.AppImage --no-sandbox
安装完成后,接下来进行ChatBox的配置工作。 首次打开会看到以下选项,选择 “使用自己的API Key或本地模型(Use My Own API Key/Local Model)”,然后在新的标签页里选择 Ollama API。 

可以模型列表里看到通过 Ollama 所部署的大模型,选择 deepseek-r1:1.5b,然后点击保存。

保存之后,就可以在对话框里与 Deepseek 大模型进行对话了。
(* 扩展:如果想要搭建私有化Agent和知识库,可以参考:基于DeepSeek和Dify构建心理咨询师应用、基于DeepSeek搭建Agent智能助手)
2.4 CodeArts IDE集成DeepSeek
Continue 是一款领先的开源 AI 代码助手。我们可以将任意模型和上下文连接起来,在CodeArts IDE中构建定制化的自动补全和聊天功能。
安装 Cotinue 插件。在云主机桌面打开CodeArts IDE,点击右侧“扩展”,输入continue搜索插件并安装。
(* 可以选择个人比较熟悉的编程语言对应的CodeArts IDE,文档里用的是CodeArts IDE for Python) 
打开Continue插件,然后点击“Select model”,在展开的下拉菜单中选择“Add Chat model”添加模型。 
接下来,Provider 选项选择 Ollama,Model 选项选择 Autodetect,然后点击 Connect,这样就可以自动选择刚才所部署的 deepseek-r1:1.5b 模型了。

至此,本案例全部内容完成。
6万+

被折叠的 条评论
为什么被折叠?



