该文章提出了首个针对MOJO语言的零样本学习环境下的LLM驱动模糊测试框架MOJOFuzzer,解决了MOJO缺乏测试框架和LLM训练语料导致的模型幻觉问题,显著提升了测试有效性并发现了13个未知漏洞。
一、文章主要内容总结
- 研究背景
- MOJO作为融合Python易用性与C/C++效率的AI编程语言,虽能提升AI模型扩展性,但缺乏成熟测试框架和LLM训练语料。
- 现有LLM模糊测试工具依赖大量领域数据,在MOJO这类新兴语言的零样本场景中,易生成语法正确但语义错误的代码,导致测试效果差。
- MOJOFuzzer框架设计
- 初始化阶段:从MOJO官方GitHub和文档收集数据,清洗后得到约300个漏洞报告和1500个语法样本,用于构建提示库(Prompt Bank)和种子库(Seed Bank),并采用CoT和角色提示技术优化提示质量。
- 变异阶段:基于变异评分(API调用数+代码复杂度)将种子分为高、低优先级,分别执行半变异(代码级修改)和全变异(提示级修改),提升测试多样性。
- 微调阶段:分两阶段微调LLAMA2 13B模型,先学习MOJO语法规则,再学习历史漏洞模式,减少模型幻觉。
- 实验结果
- 性能指标:MOJOFuzzer的API覆盖率达77
订阅专栏 解锁全文
1581

被折叠的 条评论
为什么被折叠?



