理解vllm分布式推理服务中的多节点Multi-Node部署方式

1. 多节点的含义

vllm官方文档(参考1)中给出了多节点“Multi-Node”多GPU部署的方案说明,注意该特性只是较新版本的vllm中才能使用。“Multi-Node”指的是,将大模型的推理和服务过程,分布在多个计算节点(服务器)上,进行推理的能力。这种分布式处理方式,能提升大模型在处理大量请求时的吞吐量、降低单个节点的负载,实现资源的有效利用。

一般来说,Multi-Node主要用于这种场景:k8s集群中,一个node的GPU资源不足以加载一个很大的模型,所以可以利用多个node的资源共同来加载模型

2. 单服务器部署多节点

vllm的参数--pipeline-parallel-size就是用来控制节点数的。如果将这个值设置为2,则最终就有2个模型同时做并发处理。官方文档(参考1)还举了个例子,如果服务器上有16个GPU,一个大模型需要8个GPU才能部署,则可以将--tensor-parallel-size参数的值设置为8,将--pipeline-parallel-size的值设置为2,这样就有2个模型同时做并发处理。

笔者有8块A800,我想部署8个Qwen2-7B模型做并发处理(一个模型只需要一块A800就能实现推理),则配置如下

CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 python -m vllm.entrypoints.openai.api_server \
    --model /data/models/Qwen2-7B-Instruct/ \
    --served-mode
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值