深度神经网络图像分类器的上下文相关鲁棒性验证
在当今科技飞速发展的时代,深度神经网络(DNN)图像分类器在众多安全关键应用中得到了广泛的应用。然而,这些分类器在面对一些实际场景中的图像扰动时,其鲁棒性面临着挑战。本文将介绍一种名为DeepCert的工具支持方法,用于验证DNN图像分类器对上下文相关扰动的鲁棒性。
1. 背景与挑战
近年来,DNN图像分类器在安全关键应用中的准确性表现出色,甚至接近或超过了人类操作员。但研究发现,即使是高度准确的DNN,在输入图像受到小扰动时,也可能产生错误结果。以往的研究主要集中在验证DNN对小扰动的鲁棒性,通过Lp范数来衡量扰动幅度。这种方法对于识别潜在的对抗攻击很有用,但无法验证DNN对上下文相关图像扰动的鲁棒性,因为这些扰动在Lp范数下通常不是小的。
2. DeepCert方法概述
DeepCert方法旨在解决上述问题,它支持以下几个方面:
- 真实世界图像扰动的编码 :能够对上下文相关的图像扰动进行形式化编码,如模糊、雾霾和图像对比度变化等。
- 上下文相关DNN鲁棒性的系统评估 :使用测试和形式验证两种方法,系统地评估DNN的鲁棒性,以确定随着扰动水平的增加,DNN的准确性如何下降。
- 上下文相关反例的生成 :生成的反例为工程师提供了关于模糊、雾霾等水平的直观信息,帮助他们了解DNN分类器何时失效。
- 适合操作上下文的DNN选择 :根据设计安全关键系统时设想的操作上下文,或部署系统在运行期间观察到的上下文,选择合适的DNN
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



