
2025年11月24日
vLLM中新披露的高危漏洞允许攻击者仅通过提交恶意提示嵌入(prompt embeddings)即可导致服务器崩溃或可能执行任意代码。该漏洞编号为CVE-2025-62164,CVSS评分为8.8分,影响vLLM 0.10.2及后续版本,使大量AI部署和基于LLM的应用程序面临重大风险。
漏洞技术细节
根据安全公告,"vLLM 0.10.2及后续版本的Completions API端点存在内存损坏漏洞,可导致服务崩溃(拒绝服务)并可能实现远程代码执行(RCE)"。
该漏洞源于Completions API在反序列化用户提供的嵌入时验证不足。受影响代码通过torch.load(tensor, weights_only=True)加载张量。但公告警告称:"由于PyTorch 2.8.0引入的变更,稀疏张量完整性检查默认被禁用...恶意构造的张量可绕过内部边界检查,并在调用to_dense()时触发越界内存写入。"
漏洞危害性
这种越界写入正是该漏洞极具危险性的原因——不仅会导致服务器崩溃,还可能实现任意代码执行。相关补丁已通过#27204号合并请求发布。
安全建议
随着AI基础设施的持续扩展,供应链弱点及底层张量操作漏洞将日益成为攻击目标。运行vLLM的组织应立即升级版本,并审计所有对外开放的模型服务接口。
140

被折叠的 条评论
为什么被折叠?



