手把手教你私有化部署带聊天界面的DeepSeek-32b-----Linux版

介绍

DeepSeek 是深度求索人工智能基础技术研究有限公司(简称“深度求索”或“DeepSeek”),成立于2023年,是一家专注于实现AGI的中国公司。就先这么简单的说一嘴吧,哈哈

背景

DeepSeek在春节期间突然爆火,由此DeepSeek官网平台和官方APP使用量骤增,现在访问会频繁出现卡顿,提示服务器繁忙,很久才回复一句话的情况。为了更好的使用DeepSeek,本地话部署一个私有的应用岂不是美哉!!

当前网络上出现的教程方法

1:几乎清一色是windows本地,利用ollama和chatbox组合部署
2:云部署的几乎都是在命令行里进行聊天,使用不方便
3:部署比较繁琐,资源下载不方便,还需要魔法,门槛较高

本教程优势

1:基于云端服务部署,部署简单方便,流程少
2:从0到1手把手教程,不会出现错误
3:使用云服务很弹性,价格低
4:有对话界面,且可自定义模型的Prompt
5:部署完成后,暴露出URL,在任何可以打开网址的地方都可以使用,极其方便

资源准备

1:服务器资源:

	本教程以AutoDL云服务器为例,VGPU(32G)卡,也可以3090或以上

2:模型资源:

	https://hr-mirror.com/dwetzel/DeepSeek-R1-Distill-Qwen-32B-GPTQ-INT4/tree/main

手把手教程开始:

1:租用云卡

①:打开AutoDL官方网站:https://www.autodl.com

②:选择卡进行租用以及预装环境:注意:建议选择西北企业区,对外URL不需要ssh代理设置

请添加图片描述
③:点击创建,随即进入控制台
在这里插入图片描述
④:为了方便操作,复制登录指令和密码,用ssh工具链接到服务器进行操作,进入后如图所示:
在这里插入图片描述
⑤:进入后在命令行里输入下面两个命令,初始化一下

apt update
conda init

在init后,关闭当前窗口,重新进入,就会出现前面是 (base)的conda环境

⑥:创建一个虚拟环境,本次部署是以vllm为模型服务,就创建一个vllm命名的就行

conda create -n vllm python==3.10

⑦:等待创建完毕后,查看是否有此虚拟环境

conda env list

在这里插入图片描述
⑧:激活当前虚拟环境

conda activate vllm

⑨:安装所需服务:vLLM 和 ModelScope

pip install vllm modelscope

等待安装完成… …

⑩:下载所需使用的模型,模型是托管在 huggingface.co,此网站是海外站,需要魔法,这里提供两种方法下载:
第一种:具体可参见我其他帖子不用魔法也能轻松下载大模型

	1:直接使用python代码下载,不使用梯子,需要设置huggingface_hub的地址,可查看我其他文章  [设置huggingface_hub地址)](https://blog.youkuaiyun.com/ltbweber/article/details/143740074?spm=1001.2014.3001.5502)
	2:在/root/autodl-tmp 路径下新建个模型文件夹models
	3:运行如下代码
	
	python -c "from modelscope.hub.snapshot_download import snapshot_download; snapshot_download('dwetzel/DeepSeek-R1-Distill-Qwen-32B-GPTQ-INT4', local_dir='/root/autodl-tmp/models/deepseek-r1-distill-qwen-32b')"

第二种:

	1:直接在网站上下载,打开网址:
	
		https://hf-mirror.com/dwetzel/DeepSeek-R1-Distill-Qwen-32B-GPTQ-INT4/tree/main
	
	2:复制每个的下载链接地址

在这里插入图片描述

	3:在 /root/autodl-tmp/models文件夹下新建文件夹deepseek-r1-distill-qwen-32b,并进入到此文件夹下,把上图中的每个文件下载下来,注意要保持文件名不变,例如:
	
			wget https://hf-mirror.com/dwetzel/DeepSeek-R1-Distill-Qwen-32B-GPTQ-INT4/resolve/main/model-00001-of-00005.safetensors?download=true -O model-00001-of-00005.safetensors
	然后依次下载,直到下载完毕

11:下载聊天界面UI,这里推荐使用gradio构建一个,可以从我的github仓库里下载

	git clone https://github.com/lvtingbin/chatUI.git

	进入文件夹,运行安装所需依赖库

	pip install -r  requirements.txt

编辑 app.py文件,把模型地址改为你下载的模型存放文件夹
在这里插入图片描述
其实,在app.py文件的最后,修改运行的绑定端口为6006,因为autodl对外开放的端口只有6006
在这里插入图片描述
再其次,在app.py的同级目录下,创建一个.env配置文件,内容如下:

OPENAI_API_KEY=132455   #这个是要调用vllm的api的密钥
OPENAI_API_BASE=http://127.0.0.1:5000/v1  #这个是要调用的vllm服务的接口地址,稍后我们会用5000端口启动vllm服务

启动服务

1:启动vllm服务:

	vllm serve /root/autodl-tmp/models/deepseek-r1-distill-qwen-32b --dtype auto --api-key 132455 --trust-remote-code --max-model-len 8192 --gpu_memory_utilization 0.8 --port 5000


	注释:
	--model: 模型路径
	--dtype auto: 自动选择最适合的数据类型
	--api-key: API密钥,这里使用132455
	--trust-remote-code: 信任模型代码
	--max-model-len: 最大上下文长度(这里可以按照显卡显存适当调整)
	--gpu-memory-utilization: GPU显存使用率,根据显卡情况调整,范围0-1,我这里是用0.7,启动是会占用32*0.8 = 25.6G显存
	--port: 服务端口号。由于autoDL只对外开放6006端口,上面chatUI服务使用了6006,这里就随意开一个端口就行了

2:启动chatUI服务

	python app.py

3:两个服务都启动好之后,打开autodl控制台,访问远程可访问的url进行访问:
在这里插入图片描述

在这里插入图片描述
然后就能访问到chatUI的界面了,就可以愉快的玩耍了
在这里插入图片描述

结语

有问题欢迎评论提问,你也可以实现DeepSeek自由

### 配置和使用 AutoDL 虚拟 GPU #### 获取环境准备 为了配置并使用AutoDL虚拟GPU,首先需要确保拥有合适的软件开发工具链以及必要的依赖项。对于特定的深度学习模型或库,比如`chatglm-6b-int4`,可以通过克隆其仓库来获取最新的源码和文档指导[^1]。 ```bash git clone https://huggingface.co/THUDM/chatglm-6b-int4 ``` #### 安装与设置 安装过程中可能涉及到解压文件的操作,这通常是为了部署预训练好的权重或是数据集。例如,如果有一个名为 `raw.zip` 的压缩包,则可以按照如下命令将其解压至 `/root/autodl-tmp` 目录下: ```bash unzip -d /root/autodl-tmp raw.zip ``` 此外,还需要更新系统的APT包列表,并安装诸如`zip`这样的实用程序以便于后续的数据处理工作[^3]。 ```bash apt-get update && apt-get install -y zip ``` #### 使用 rCUDA 实现 GPU资源共享 当考虑在多租户环境中高效分配有限的物理GPU资源时,rCUDA提供了一种解决方案。它不仅实现了资源间的有效隔离,还允许通过网络连接远程访问其他服务器上的GPU设备,从而实现更灵活的任务调度机制[^4]。 #### 创建和管理 Virtual GPUs (vGPUs) 针对AutoDL平台而言,创建vGPUs的过程涉及到了对底层硬件抽象层(HAL)的支持,使得多个用户能够安全地共享同一块实际存在的图形处理器而互不干扰。具体来说,管理员可以根据需求划分可用的GPU内存大小给不同的实例;与此同时,应用程序则无需关心具体的物理位置,只需请求一定数量的核心数及显存容量即可正常运作。 #### 启动基于 Kubernetes 的分布式训练作业 一旦完成了上述准备工作之后,就可以借助Training Operator所提供的功能,在Kubernetes集群之上轻松启动大规模分布式训练任务了。该组件特别适合那些希望充分利用现有基础设施来进行复杂AI算法迭代优化的研究人员和技术团队[^2]。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值