论文那些事—Boosting the Transferability of Adversarial Samples via Attention

这篇论文介绍了如何利用注意力机制改进对抗样本的可转移性,通过关注模型关键特征并正则化搜索过程,ATA算法超越了现有基准。论文提出一种策略,结合梯度注意力优化,适用于多种攻击算法,实验证明其在跨模型攻击中的有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Boosting the Transferability of Adversarial Samples via Attention(CVPR2020,ATA)

1、摘要

本文主要以提高对抗样本的迁移性为目的,黑盒攻击在真实情况中才最常发生。首先关于注意力机制,粗略的描述就是“你正在做什么,你就将注意力集中在那一点上”。本文也是首次将注意力机制运用在对抗样本上,注意力主要由反向传播的梯度构成。

本文贡献主要有三个:

  1. 提出了一种新的策略来提高对抗性图像的可转移性。它的特点是引入模型注意来正则化对抗噪声的搜索,从而缓解传统方法(FGSM、I-FGSM等)生成的对抗样本对源模型的过度拟合。

  2. 性能优于最先进的基准测试。

  3. 可以与其他攻击算法兼容。

2、ATA攻击算法原理

首先本文通过实验验证了不同分类模型对于相同图片有着相似的注意力空间:

 所以对这这些注意力集中的地方添加对抗扰动,可能就能使对抗样本有良好的迁移性,换句话说就是期望对抗样本的搜索朝着替代模型和目标模型共同易受攻击的方向。

整体流程:

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值