Boosting the Transferability of Adversarial Samples via Attention(CVPR2020,ATA)
1、摘要
本文主要以提高对抗样本的迁移性为目的,黑盒攻击在真实情况中才最常发生。首先关于注意力机制,粗略的描述就是“你正在做什么,你就将注意力集中在那一点上”。本文也是首次将注意力机制运用在对抗样本上,注意力主要由反向传播的梯度构成。
本文贡献主要有三个:
-
提出了一种新的策略来提高对抗性图像的可转移性。它的特点是引入模型注意来正则化对抗噪声的搜索,从而缓解传统方法(FGSM、I-FGSM等)生成的对抗样本对源模型的过度拟合。
-
性能优于最先进的基准测试。
-
可以与其他攻击算法兼容。
2、ATA攻击算法原理
首先本文通过实验验证了不同分类模型对于相同图片有着相似的注意力空间:
所以对这这些注意力集中的地方添加对抗扰动,可能就能使对抗样本有良好的迁移性,换句话说就是期望对抗样本的搜索朝着替代模型和目标模型共同易受攻击的方向。
整体流程: