前言
本次,我们将以53K Star的开源明星项目LLaMA-Factory为战场,详细展示悟空AI Agent如何在实际场景中,精准挖掘高危远程代码执行0day漏洞(CVE-2025-53002),并推动官方修复的技术实战。
一、LLaMA-Factory简介
LLaMA-Factory是一个功能强大且用户友好的开源框架,在 GitHub 上斩获了超过 53K Stars,专注于大语言模型(LLM)的高效微调(Fine-tuning)。凭借其易用性和灵活性,LLaMA-Factory 已成为许多开发者和研究团队进行模型训练与部署的首选工具。
(图:LLaMA-Factory Github Index)
然而,面对这样的大型开源社区项目,当我们使用悟空AI Agent对其进行深度安全审计时,也能发现潜在的安全风险,成功识别了一个严重的远程代码执行漏洞:CVE-2025-53002(CVSS v3.1: 8.3)。
(图:LLaMA-Factory GithubStarHistory)
二、悟空AI Agent的实战效能
悟空AI Agent在此次漏洞挖掘中展示了其强大的自动化漏洞挖掘能力,特别是在多智能体协作架构(Multi-Agent)的支持下,突破了传统手段的限制。通过以下几个关键阶段,悟空AI Agent逐步发现了漏洞的核心:
● Audit Agent: 首先,Audit Agent负责从Web UI输入追踪到后台的数据处理参数及接口,从入口出发追踪目标数据流,并自动决策对下层调用函数的展开分析,直至发现存在漏洞特征的危险函数调用(不安全的反序列化 API 调用)。
● Review Agent: 随后,Review Agent对 Audit Agent所提取的漏洞相关代码信息进行进一步分析,通过多重校验与投票机制评估该漏洞触发的约束条件,确定其可利用性。
● Fix Agent:最终,Fix Agent基于CVEs数据库和内部知识库生成了漏洞修复建议,形成了具体的修复方案。
(图:悟空AI Agent 架构图)
悟空AI Agent在此过程中展现了卓越的程序分析与漏洞发现能力,能够穿透复杂逻辑链,精确定位到不安全的反序列化操作(torch.load)及其触发路径。悟空AI Agent不仅为传统的漏洞挖掘方法提供了补充,也为自动化安全审计提供了可行的解决方案。
三、官方响应与修复
在确认该漏洞有效后,我们立即通过GitHub Security Advisories渠道向LLaMA-Factory官方团队提交了详尽的技术报告(含PoC复现步骤,已同步报送CNVD等监管单位)。
官方响应:
LLaMA-Factory团队对此高度重视,迅速确认了漏洞的有效性和严重性。并颁发CVE漏洞编号。
修复方案:
官方对src/llamafactory/model/model_utils/valuehead.py 的关键代码进行了加固:在torch.load()调用中显式添加了安全参数 weights_only=True,从根本上阻断了利用Pickle反序列化执行任意代码的可能性。
# src/llamafactory/model/model_utils/valuehead.py
- state_dict = torch.load(vhead_file, map_location="cpu")
+ state_dict = torch.load(vhead_file, map_location="cpu", weights_only=True)
四、 技术分析
漏洞摘要
在 LLaMA Factory 的训练过程中,发现一处严重的远程命令执行(RCE)漏洞。该漏洞源于加载 vhead_file 时未采取充分的安全措施。恶意攻击者仅需通过 WebUI 界面传递一个恶意的 Checkpoint path 参数,即可在宿主系统上执行任意恶意代码。整个攻击过程具有隐蔽性,受害者难以察觉。漏洞的根本原因是加载 vhead_file 参数时,未设置安全参数 weights_only=True。
注意: 在 torch 版本 < 2.6 中,torch.load() 的默认设置为 weights_only=False。而 LLaMA Factory 的 setup.py 仅要求 torch>=2.0.0,使得受影响版本默认处于不安全状态。
影响范围
该漏洞影响的范围包括所有使用LLaMA-Factory框架的版本(<=0.9.3)。受影响的产品涉及广泛的应用场景,包括大语言模型的训练与推理。
风险等级
CVSS 3.1评分为8.3(高危),表明该漏洞对安全性构成了极大的威胁。
CVE-2025-53002漏洞的存在使得攻击者能够通过精心构造的恶意文件,在LLaMA-Factory框架中实现远程代码执行,严重威胁使用该框架进行大语言模型训练和推理的组织。
成功利用此漏洞后,攻击者能够执行任意恶意代码,可能导致权限提升、信息泄露、数据篡改等一系列恶劣后果,甚至可能破坏整个AI基础设施的安全性。
漏洞触发流程
\1. 在 LLaMA Factory 的 WebUI 中,当用户设置 Checkpoint path 时,该值会修改传递给训练过程的 adapter_name_or_path 参数。
(图:相关代码位置:src/llamafactory/webui/runner.py)
\2. 训练过程中使用的 adapter_name_or_path 参数,在 src/llamafactory/model/model_utils/valuehead.py 文件中用于从 Hugging Face 获取对应的 value_head.bin 文件。
\3. 随后,该文件通过 torch.load() 加载,但未设置安全参数 weights_only=True,最终导致远程代码执行。
(图:相关代码位置:src/llamafactory/model/model_utils/valuehead.py)
结语
本次对LLaMA-Factory的实战审计,展示了悟空AI Agent在真实、复杂开源项目中发现高危漏洞的效率与能力。它不仅缩短了漏洞从潜伏到被发现的时间窗口,也通过标准化的报告流程加速了厂商响应与修复。未来,AI Agent将在网络安全领域扮演越来越核心的角色:
\1. 自动化深度审计:实现对大型项目、复杂代码的高效、深度、持续的全自动安全审查。
\2. 0day威胁预警:主动挖掘未知漏洞,从漏洞利用链上精准识别0day漏洞,提升整体防御前置性。
\3. 安全开发左移:集成至CI/CD流程,辅助开发者在早期规避安全缺陷,降低修复成本。
悟空AI Agent的探索将持续深化,致力于推动安全研究与实践迈入智能化新纪元。
最后
为什么要学AI大模型
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。
与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】

AI大模型系统学习路线
在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。
但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。
AI大模型入门到实战的视频教程+项目包
看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
海量AI大模型必读的经典书籍(PDF)
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
600+AI大模型报告(实时更新)
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
AI大模型面试真题+答案解析
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】
