论文理解:Defense-GAN

本文介绍了对抗训练的基础知识,包括黑盒、白盒和灰盒攻击。重点探讨了Defense-GAN,这是一种使用GAN而非auto-encoder进行防御的方法,通过L次GD算法选择z*。它作为预处理步骤,不改变分类器结构,对各种攻击具有鲁棒性,尤其抵抗白盒攻击。作者还比较了Defense-GAN与MagNet的差异,并展示了两者网络结构。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

由于首次接触对抗训练方面的内容,在此借着Defense-GAN中的相关内容先对对抗训练相关知识做一个简要的整理。
对抗训练基本说明见https://www.leiphone.com/news/201702/Jpb0uiOt9RTwcB8E.html

对抗攻击大致分为3种:
黑盒攻击:攻击者无权接触到分类模型参数,同时无法接触到分类模型的训练数据集。目前通常采用训练一个攻击目标分类器的替代模型,在其上训练并攻击以找出对抗样本。这些对抗样本往往能够被目标分类器误分类。这也证明了黑盒攻击的可迁移性。替代模型的训练集获得方式:将一小部分数据集送入目标分类器中,获得输出label并对此进行数据增强。
白盒攻击:攻击者能够获得分类模型的所有参数,例如网络结构和权限,防御机制的细节等。攻击模型得到loss函数表达,因而能够将扰动指向某一特定分类类别。
指向特定类别的攻击有Iterative FGSM,JSMA,Deepfool等。
不指向特定类别的攻击有FGSM,RAND+FGSM,CW(目前最强白盒攻击之一,参考见https://zhuanlan.zhihu.com/p/39285664)等。
灰盒攻击:上述两者的折中。攻击者知道网络结构和防御机制,但是不知道具体参数。

对抗防御大致分为3类:
1.调整训练数据使得分类器对攻击更鲁棒,比如用对抗样本进行数据增强。由于对抗样本由攻击产生,显然在攻击策略更换后,这种防御方式将会表现不佳。同时由于gredient masking这种防御方式对白盒攻击的防御效果优于黑盒攻击。
2.对分类器进行防御蒸馏训练。利用这种方式使得网络更加平滑,输入点附近的梯度较小,从而难以生成对抗样本。这种防御方式对白盒攻击防御效果好,但是对黑盒攻击效果不好。
3.尝试去除输入中的噪声。MagNet训练了一个reformer network(一个或者一系列的auto-encoder)使得对抗样

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值