使用vLLM在3090上部署DeepSeek-R1-Distill-Qwen-7B R1 推理服务

部署运行你感兴趣的模型镜像

1. 在机器上拉取Docker 镜像

docker pull nvcr.io/nvidia/pytorch:24.02-py3 

2. 启动docker 镜像

docker run --network host --privileged --ipc=host -e TZ=Asia/Shanghai -v /home/ppl/:/home/ppl -v /data:/data --gpus all --name ppl_r1_vllm -it nvcr.io/nvidia/pytorch:24.02-py3 bash

3. 进入容器

最好安装虚拟环境,免得依赖处理麻烦

apt install python3.10-venv

cd /home/ppl

4. 创建python 干净的虚拟环境

python -m venv myvenv .
 

5. 安装vLLM

pip install vllm -i  http://xxx/artifactory/api/pypi/pypi-remote/simple --trusted-host xxx

这里可用清华的源,也可以用北京外国语大学的pip源,我用的内部的。

6.单卡跑7B

python3 -m vllm.entrypoints.openai.api_server --model=/home/ppl/aicoder/share_models/DeepSeek-R1-Distill-Qwen-7B --dtype bfloat16 --trust-remote-code --device cuda --max-model-len=4096 --tensor-parallel-size=1 --gpu-memory-utilization=0.80 --enable-reasoning --reasoning-parser deepseek_r1
 

 出现:RuntimeError: CUDA er

您可能感兴趣的与本文相关的镜像

Python3.10

Python3.10

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值