目录
1 概述
浪潮信息KOS是浪潮信息基于Linux Kernel、OpenAnolis等开源技术自主研发的一款服务器操作系统,支持x86、ARM等主流架构处理器,性能和稳定性居于行业领先地位,具备成熟的 CentOS 迁移和替换能力,可满足云计算、大数据、分布式存储、人工智能、边缘计算等应用场景需求。详细介绍见官网链接https://www.ieisystem.com/kos/product-kos-xq.thtml?id=12126
vLLM是一种用于大规模语言模型(LLM)推理的框架,旨在提高模型的吞吐量和降低延迟。vLLM通过优化内存管理和调度策略,显著提升了模型在高并发场景下的性能。vLLM利用了一种名为PagedAttention的注意力机制,该机制借鉴了虚拟内存和分页技术,以减少缓存内存(KV Cache)的浪费,并允许在请求之间灵活共享KV缓存。这种设计使得vLLM在保持与现有系统相同延迟水平的情况下,能够将吞吐量提高2到4倍。官方网址:https://www.vllm.ai
本篇文章主要介绍如何在KOS操作系统上进行vLLM基准性能测试,及benchmark测试,vLLM benchmark 测试是针对 vLLM 推理服务框架的性能评估过程,旨在量化其处理大规模语言模型推理任务时的效率、吞吐量和延迟表现,覆盖典型测试场景,包括单GPU/多GPU、不同模型规模、批处理效果等。
2 环境准备
操作系统版本:KOS 5.8 sp2u1(5.10.134-17.2.2.kos5.x86_64)
测试架构:x86_64,96核1TB物理机
显卡:NVIDIA Tesla V100s * 2
Docker镜像: vllm/vllm-openai:latest
模型:DeepSeek-R1-Distill-Llama-8B
3 性能测试
3.1 下载vllm源码
1、创建挂载容器目录:
mkdir –p /data
2、下载vllm源码到指定目录
cd /data
git clone

最低0.47元/天 解锁文章
779

被折叠的 条评论
为什么被折叠?



