大模型和二进制安全

模糊测试相关论文

1.Large-language-model-guided-protocol-fuzzing/

大模型引导的协议模糊测试
由新加坡国立大学的Ruijie Meng、Martin Mirchev和Abhik Roychoudhury,以及德国MPI-SP和澳大利亚莫纳什大学的Marcel Böhme共同撰写。论文探讨了在没有机器可读的协议规范的情况下,如何发现协议实现中的安全漏洞。由于互联网上的协议实现是安全关键的软件系统,输入必须遵循特定结构和顺序,这些通常在RFC文档中以自然语言非正式地指定。缺乏机器可读的协议版本使得自动生成遵循所需结构和顺序的有效测试输入变得困难。

为了解决这一挑战,作者提出了利用预训练的大型语言模型(LLM)进行系统性交互的方法。这些模型已经消化了数百万页的人类可读协议规范,可以提取出在协议模糊测试(protocol fuzzing)期间可以使用的机器可读信息。研究使用了LLM对知名协议的消息类型的知识,并检查了LLM在检测有状态协议实现中的“状态”方面的性能,通过生成消息序列并预测响应代码。

基于这些观察,作者开发了一个由LLM引导的协议实现模糊测试引擎,名为ChatAFL。ChatAFL为协议中的每种消息类型构建语法,并与LLM交互以变异消息或预测消息序列中的下一条消息。在ProFuzzbench上的广泛真实世界协议的实验表明,ChatAFL在状态和代码覆盖方面显示出显著的有效性。与最先进的模糊测试工具AFLNet和NSFuzz相比,ChatAFL覆盖了更多的状态转换

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值