HyperAI超神经 x CCF ODTC丨vLLM助力大模型推理性能革新

部署运行你感兴趣的模型镜像

作为第八届 CCF 开源创新大赛的常规赛的赛题之一,第八届 CCF 开源创新大赛专项赛题 ——「开源 GPU 创新生态赛(常规赛)」第一期报名火热进行中。本次竞赛聚焦 GPU 底层算力革新与开源生态建设,HyperAI超神经是本次活动的官方合作社区,诚邀全球开发者共同攻坚。

作为第八届 CCF 开源创新大赛的常规赛的赛题之一,第八届 CCF 开源创新大赛专项赛题 ——「开源 GPU 创新生态赛(常规赛)」第一期报名火热进行中。本届大赛由中国计算机学会(CCF)主办,开源发展技术委员会(ODTC)承办。该赛事聚焦 GPU 技术与开源生态的深度融合,旨在推动国产算力创新及人工智能普惠化发展,吸引全球开发者、高校团队及企业共同探索 GPU 底层优化、算法加速与生态共建。面对大模型推理的「三高」困境(高延迟、高显存、高生态依赖),本次竞赛聚焦 GPU 底层算力革新与开源生态建设,HyperAI超神经是本次活动的官方合作社区,诚邀全球开发者共同攻坚。

具体而言,子赛题二——GPU 开源生态挑战赛,随着 AI 大模型规模不断扩大、推理需求急剧增长,如何高效释放国产 GPU 的算力潜能成为 AI 基础设施发展的关键问题。子赛题二覆盖大模型推理与服务框架方向,聚焦 vLLM、LMDeploy 等主流推理框架在国产 GPU 平台上的性能优化与适配,旨在推动高性能推理框架生态的本土化建设。

本赛题中,vLLM 以其高吞吐、低延迟的推理能力和灵活的架构设计,成为国产GPU推理生态的重要支撑之一。通过对 MACA 平台的深度适配,vLLM-MACA 实现了模型推理性能与系统兼容性的双提升,进一步完善了国产 GPU 软件栈的生态闭环。

为帮助开发者快速理解任务内容与评分细则,本文详细给大家介绍 vLLM 推理框架文档任务。涵盖环境验证、模型适配、特性测试与贡献机制等完整说明:

原文链接:

https://www.gitlink.org.cn/ccf-ai-infra/GPUApps/tree/main/mc_vLLM/task_level.md

一、前置说明

1. 提交要求:所有交付需提交至 MACA-vLLM 仓库的文档对应目录。

2. 参考资料:

vLLM 官方文档:

https://docs.vllm.ai

vLLM for MACA 版本社区文档:

https://vllm-metax.readthedocs.io/en/v0.11.0/

二、Level 1:

环境与基础验证类(5/10分)

1

核心目标

熟悉 vLLM-MetaX 基础环境开发,完成 MACA 平台上的模型推理验证。

2

任务内容

  1. 环境验证任务(5分)

* 使用 MACA 3.2.1 + PyTorch 2.6 镜像 完成 vLLM 源码安装;

* 检查环境变量配置及日志输出;

* 提交运行截图、验证日志至对应比赛的 Issue。

2. 代码编译构建文档完善并被合并(10分)

* 完善编译与构建文档,补充 MACA 环境下的依赖安装、环境变量配置及常见的编译错误解决方案;

* 提交验证文档参考

https://github.com/MetaX-MACA/vLLM-metax/pull/129

其中验证脚本提交至

https://github.com/MetaX-MACA/vLLM-metax/tree/master/docs/samples

并修改 supported_models.md

三、Level 2:

模型验证与适配类(5/15分)

1

模式验证清单

vLLM 官方模型支持列表:

https://docs.qq.com/sheet/DTkZWVGhBVWtKZHZU?tab=BB08J2

紫色标记的是已验证过可以在MACA-vLLM上支持的,故分值为5,若选手在验证过程中发现存在BUG并提出,可获得额外加分。

* 白色标记成功验证可在MACA-vLLM上支持,即得15分;若验证不成功提交详细日志和验证步骤也得15分。

核心目标:完成 vLLM 官方支持模型在 MACA 平台的验证。

2

任务内容

1. MACA-vLLM社区支持模型验证

* 参考 vLLM 官方模型支持列表的紫色标签部分;

* 验证 已列入 MACA 开源模型支持列表 能正确运行;

* 提交验证日志与推理结果截图;

* 验证离线推理(Offline Inference)与在线推理(Online Serving)均能正常运行;

* 计分标准:每完成 1 个模型验证得 5 分,单人上限 10 分,先到先得。

2. 不在 MACA 支持列表的模型验证(测试验证vLLM官方支持列表,并加入MACA 开源模型支持列表)

* 选择 在vLLM官方支持列表,但 MACA 开源模型支持列表暂未支持的模型即表格中的白色标签部分;

* 尝试在 MACA-vLLM 上进行验证、复现或完善使用文档;

* 验证离线推理(Offline Inference)与在线推理(Online Serving)均能正常运行;

* 成功完成验证并提交对应验证文档合并到MACA开源模型支持列表的可得 15 分。

、Level 3:

特性功能验证与 BUG 分析类(5/15分)

1

核心目标

验证 vLLM 关键特性在 MACA 上的实现情况,发现潜在兼容性问题。

2

任务内容

1. 特性验证任务

* 选择 1 项 vLLM 功能(如KV Cache、Quantization、LoRA、Paged Attention 等);

* 验证其在 MACA 平台是否可正常工作;

* 提供完整测试步骤与日志;

* 首次验证通过计 5 分,单人上限 10 分。

2. BUG 复现任务

* 找出 MACA 平台与 CUDA 平台差异导致的特性不支持问题或 BUG;

* 提供复现方法与详细日志;

* 若能定位问题原因并提交详细分析,得 15 分。

五、Level 4:

开发与贡献类(50分)

1

核心目标

完成特性修复、性能优化或完整案例开发,实现对 MACA 平台的增强贡献。

2

任务内容

BUG 修复与 PR 提交

* 找出 vLLM 在 MACA 平台的核心问题;

* 提供复现步骤、问题定位及修复代码;

* 提交可合并的 PR 并通过 Review;

* 合并后得 50 分。

六、补充说明

七、附录与参考链接

* vLLM 官方支持模型列表

https://docs.vllm.ai/en/latest/models/supported_models/

* vLLM-MetaX 官方站点

https://vllm-metax.readthedocs.io/en/latest/getting_started/quickstart.html

* vLLM-MetaX GitHub 仓库

https://github.com/MetaX-MACA/vLLM-metax

* MACA Hardware Supported Models

https://github.com/MetaX-MACA/vLLM-metax/blob/v0.11.0-dev/docs/models/supported_models.md

模型验证清单共享文档

为便于选手认领验证任务、统一记录模型适配进度,现已开放模型验证共享表格:vLLM-MACA 模型验证清单。

【腾讯文档】开源 GPU 创新生态赛赛题二-vLLM 社区模型验证:

https://docs.qq.com/sheet/DTkZWVGhBVWtKZHZU?tab=BB08J2

欢迎各位开发者认领模型验证任务、提交运行日志,共同完善国产GPU上的vLLM生态适配。

vLLM-MACA的适配与优化,不仅展示了开源社区在大模型推理方向的技术积累,也标志着国产GPU生态在AI基础软件层的又一次突破。期待更多开发者加入 MACA 社区,共同探索高性能推理框架的无限可能,为中国算力生态注入创新力量。

赛事奖金设置

赛事安排

报名时间:2025 年 09 月 15 日-12 月 10 日

赛事时间:2025 年 09 月 15 日-12 月 10 日

赛事评审:2025 年 12 月 10 日-12 月 20 日

结果发布:2025 年 12 月 21 日-12 月 30 日

赛事报名

报名链接:

https://www.gitlink.org.cn/competitions/gitlinkGPU1

进入报名页面了解更多赛事详情介绍

报名二维码:

图片

赛事答疑群:

Image

扫码进入赛事群

获取答疑支持和赛事最新资讯

组织机构

主办单位:中国计算机学会

承办单位:CCF开源发展技术委员会

公益支持:中国光华科技基金会

合作伙伴:ODTC AI Infra工作组、模力方舟、木兰开源社区、书生、上海开源信息技术协会、机智流、魔乐社区、飞桨、上海源庐加佳信息科技有限公司、龙蜥社区、HyperAI超神经

一键获取 2023—2024 年 AI4S 领域高质量论文及深度解读文章 ⬇️

 往期推荐 

戳“阅读原文”,免费获取海量数据集资源!

您可能感兴趣的与本文相关的镜像

Vllm-v0.11.0

Vllm-v0.11.0

Vllm

vLLM是伯克利大学LMSYS组织开源的大语言模型高速推理框架,旨在极大地提升实时场景下的语言模型服务的吞吐与内存使用效率。vLLM是一个快速且易于使用的库,用于 LLM 推理和服务,可以和HuggingFace 无缝集成。vLLM利用了全新的注意力算法「PagedAttention」,有效地管理注意力键和值

基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究(Matlab代码实现)内容概要:本文围绕“基于数据驱动的Koopman算子的递归神经网络模型线性化”展开,旨在研究纳米定位系统的预测控制方法。通过结合数据驱动技术与Koopman算子理论,将非线性系统动态近似为高维线性系统,进而利用递归神经网络(RNN)建模并实现系统行为的精确预测。文中详细阐述了模型构建流程、线性化策略及在预测控制中的集成应用,并提供了完整的Matlab代码实现,便于科研人员复现实验、优化算法并拓展至其他精密控制系统。该方法有效提升了纳米级定位系统的控制精度与动态响应性能。; 适合人群:具备自动控制、机器学习或信号处理背景,熟悉Matlab编程,从事精密仪器控制、智能制造或先进控制算法研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①实现非线性动态系统的数据驱动线性化建模;②提升纳米定位平台的轨迹跟踪与预测控制性能;③为高精度控制系统提供可复现的Koopman-RNN融合解决方案; 阅读建议:建议结合Matlab代码逐段理解算法实现细节,重点关注Koopman观测矩阵构造、RNN训练流程与模型预测控制器(MPC)的集成方式,鼓励在实际硬件平台上验证并调整参数以适应具体应用场景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值