1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

近日,DeepSeek AI 研究者、深度学习系统工程师俞星凯从零开始构建了一个轻量级 vLLM 实现 ——Nano-vLLM,将代码简化到了 1200 行。

【2025 B站最新多模态大模型部署与微调实战课程讲解!最详细微调Qwen2-VL视觉模型代码实战讲解!全程都是干货!】 https://www.bilibili.com/video/BV1KWTjz4E6B/?

开源社区的人应该对 vLLM 不陌生,它是一个由加州大学伯克利分校团队开发的高性能、开源 LLM 推理和服务引擎,核心目标是提升 LLM 的推理速度(吞吐量)和资源利用率(尤其是内存),同时兼容 Hugging Face 等流行模型库。

简单来说,vLLM 能让 GPT、Mistral、LLaMA 等主流模型系列跑得更快、消耗更少资源,取得这些效果的关键是其创新的注意力机制实现方案 ——PagedAttention。

近日,DeepSeek AI 研究者、深度学习系统工程师俞星凯从零开始构建了一个轻量级 vLLM 实现 ——Nano-vLLM,将代码简化到了 1200 行。

目前,该项目在 GitHub 上收获了 200 多的 Star。

图片

GitHub 地址:https://github.com/GeeeekExplorer/nano-vllm/tree/main

具体来讲,Nano-vLLM 具有以下三个核心功能:

一是,Fase 离线推理。推理速度与 vLLM 相当。

二是,易读代码库。实现非常简洁,Python 代码减少到了 1200 行以下。

三是,优化套件。提供 Prefix 缓存、Torch 编译、CUDA 计算图等功能。

俞星凯在基准测试中采用了以下测试配置:

  • 硬件:RTX 4070
  • 模型:Qwen3-0.6B
  • 总请求:256 个序列
  • 输入长度:100–1024 tokens 之间随机采样
  • 输出长度:100–1024 tokens 之间随机采样

基准测试结果如下表所示,Nano-vLLM 与 vLLM 的输出 token 相同,时间略长,推理速度(吞吐量)稍逊一点点。整体而言,二者表现相当。

图片

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值