Enhancing the Transferability of Adversarial Attacks through Variance Runing

该研究关注于提升对抗攻击的迁移性,尤其是针对黑盒攻击。通过引入一种名为Variance Tuning的新方法,该方法在梯度更新过程中考虑了历史梯度的方差,以稳定参数更新并避免局部最优。相比于传统的FGSM、I-FGSM、MI-FGSM和NI-FGSM等方法,Variance Tuning在提高攻击效果和迁移性方面表现出优势。实验表明,这种方法可以与数据增广技术如DIM、TIM和SIM等结合,进一步提升攻击性能,尤其是在攻击集成模型和防御模型时。

Enhancing the Transferability of Adversarial Attacks through Variance Tuning

CVPR2021
大类属于使用新的数据增广技术提高对抗样本的攻击迁移性,属于黑盒攻击。

Abstract:白盒攻击效果已经很好了,但是黑盒(迁移)攻击效果仍不能达到满意的效果。本文引入一种新的方法——Variance Tuning,来提高基于梯度迭代攻击方法类的攻击效果,并提高其攻击迁移性。具体地,在使用梯度更新参数的时候,并不是使用当前梯度来进行动量累积,而是使用之前迭代步的梯度信息来对当前梯度进行调整修正,以使得参数更新稳定,并尽可能拜托局部最优。

似乎归根结底,还是要提高模型的泛化性?

1. Introduction

为了提高对抗样本的攻击迁移性,常用的手段有:

  • 生成对抗样本时使用更加先进的梯度计算方法,例如Momentum、Nesterov’s accelerated gradient;
  • attacking multiple models(集成攻击)
  • 采用数据增广技术对输入数据进行变换

这一点划分和Improving the Transferability of Adversarial Samples with Adversarial Transformations中2.1节内容是一致的。

不过本文采用的是使用更加先进的梯度方法提高攻击迁移性,而这篇文章采用的是数据增广技术。

与之前直接使用梯度方向或使用基于“动量矩”累积进行梯度修正方法不同,本文不仅使用当前梯度信息,而且还使用了之前的梯度方差来修正当前梯度。本方法的关键是使得梯度方差降低,进而使得参数更新更加稳定,并尽可能局部最优点。

2. Related Work

2.1 Adversarial Attacks

image-20210811230909222

2.1.1 Gradient-based attacks

使用先进梯度计算方法提高对抗样本攻击迁移性类。

  • FGSM

image-20210811231351631

  • I-FGSM

image-20210811231413894

  • MI-FGSM(Momentum Iterative FGSM)

将动量矩结合I-FGSM,可提高对抗样本的攻击迁移性。

image-20210811231517468

  • NI-FGSM(Nesterov Iterative FGSM),采用Nesterov‘s accelerated gradient来进一步提高攻击迁移性。将上式中的 x t a d v x_t^{adv} xtadv替换为 x t a d v + α ⋅ μ ⋅ g t x_t^{adv}+\alpha \cdot \mu \cdot g_t xtadv+αμgt,即进一步对梯度信息进行修正。
image-20210812095905587

NI-FGSM与MI-FGSM相比,不仅在更新梯度的时候范式有了变换,而且在更新参数 θ \theta θ的时候也有改进。

原始的Nesterov Accelerated Gradient(NAG)范式为:

image-20210812100424746

即将其中的训练参数 θ \theta θ进一步改进。

在Improving Transferability of Adversarial Examples with Input Diversity(DIM)中,对提出的DIM有以下划分:

image-20210811233709505

2.1.2 Input Transformations

使用数据变换(Input Transformations)/数据增广类方法提高对抗样本攻击迁移性类。

数据/模型增强效果等同于集成模型??Inputs Transformations类方法都是通过增加数据的多样性来提高模型/对抗样本的泛化能力。

image-20210811234254459

  • Translation-Invariant Method(TIM).不是对单张图片计算梯度,而是对单张图片进行一系列变换后在计算梯度,对有防御的模型攻击效果较好。
  • Scale-Invariant Method(SIM).在NI-FGSM文章中一并提出,利用图像缩放不变性,通过同时计算单张图片多次缩放的梯度来近似最终梯度。

image-20210812101708920

其中: S i ( x ) = x / 2 i S_i(x) = x/2^i Si(x)=x/2i

基于input transformation的方法和基于梯度的方法并不是正交的,二者可以一起结合使用。

本文提出的variance tuning方法旨在提高基于梯度攻击方法(MI-FGSM、NI-FGSM)的攻击迁移性。

2.1.1和2.1.2涉及内容的先后问题:

分两行:

F G S M → I − F G S M ( B I M ) → M I − F G S M → N I − F G S M D I M → T I M → S I M FGSM \rightarrow I-FGSM(BIM) \rightarrow MI-FGSM \rightarrow NI-FGSM \\ \\ DIM\rightarrow TIM \rightarrow SIM FGSMIFGSM(BIM)MIFGSMNIFGSMD

评论 4
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值