软件对抗样本生成与碳足迹自动化减少研究
1. 对抗样本生成相关研究
在深度学习领域,对抗样本的生成是一个重要的研究方向。以往生成对抗样本的早期工作多采用白盒方法,这些方法利用被攻击模型的梯度信息并引入噪声来阻碍模型的能力。例如,Szegedy 等人首次使用 L - BFGS 算法生成对抗样本,Carlini 和 Wagner 提出了具有修改目标函数和约束的 C&W 攻击,Goodfellow 等人引入了基于每一步有符号梯度扰动目标图像的快速梯度符号法(FGSM)。但这些技术都是白盒的,假设可以访问梯度信息和其他模型参数。
也有一些研究探索了基于黑盒进化搜索的方法来生成对抗样本。与白盒方法相比,黑盒方法更接近真实攻击场景,因为模型的开发通常是专有的。Papernot 等人证明了白盒对抗攻击可以转移到其他模型,而 Alzantot 等人、Vidnerová 等人、Chen 等人则提出了各种遗传算法方法来针对图像分类算法生成对抗样本,Chan 和 Cheng 提出的 EvoAttack 表明对抗攻击也适用于目标检测算法。不过,这些方法生成的对抗样本不能揭示多样的模型行为。
还有一些工作探索了深度神经网络(DNN)的多样性应用。Rozsa 等人引入了使用多样化的对抗样本集来评估和重新训练模型,但他们的方法使用白盒方法生成对抗样本且不能发现失败类别。Aghababaeyan 等人提出使用几何多样性度量从原始输入数据集中识别多样化的测试用例。Langford 和 Cheng 提出了几种新奇搜索技术来探索环境不确定性对 DNN 的影响,但他们的方法没有解决 DNN 对噪声扰动或对抗样本的鲁棒性问题。
而 Expound 是第一个基于黑盒的新奇搜索方法,用于生成多样化
超级会员免费看
订阅专栏 解锁全文
395

被折叠的 条评论
为什么被折叠?



