- 博客(8)
- 收藏
- 关注
原创 “Improving Adversarial Robustness Requires Revisiting Misclassified Examples“ 论文笔记
“Improving Adversarial Robustness Requires Revisiting Misclassified Examples” 论文笔记 ICLR2020
2022-06-22 17:32:02
1523
原创 《Single-step Adversarial training with Dropout Scheduling》 论文笔记
Abstract在对抗训练中,mini-batches 通过对抗样本进行数据增强,然后在进行训练。通常使用快速、简单的方法来生成对抗样本,目的是减少计算复杂度。然而使用单步对抗训练方法训练的模型的鲁棒性是伪性的。本文的工作中,作者表明了使用单步对抗训练方法训练的模型会逐渐学习避免单步对抗的产生,这是因为模型在初始训练阶段的过拟合。为了减小这种现象,作者提出了一个带有dropout scheduling的单步对抗训练方法。与其他现有的对抗训练方法不同,使用提出的单步对抗训练方法在对抗单步和多步攻击时都是鲁
2020-12-23 21:26:46
532
原创 CBAM: Convolutional Block Attention Module 论文笔记
Abstract该论文提出 Convolutional Block Attention Module (CBAM),一个简单但是有效的用于前馈卷积注意力模块。给出中间特征图,模块可以顺序的从两个维度——通道和空间来推断 attention map,然后将 attention map 和 input feature map 相乘得到自适应的特征细化。并且CBAM是轻量级的,可以无缝整合到任何CNN结构中,并且开销可忽略不计,还可以和CNN一起端到端的进行训练。Introduction为提高 CNN 的性
2020-12-15 20:39:43
655
原创 CVPR2020 Adversarial Attack & Defense Summary(Part 1)
Alleviation of Gradient Exploding in GANs: Fake Can Be Real解决问题:GAN的梯度爆炸、模式崩溃问题。解决方法:在一个mini batch 中 close pairs 多的位置选取假样本,认定其为真样本,再进行训练,来有效防止不平衡分布的产生(FARGAN)。Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises解决问题:提出一种以无模型方式攻击单目标
2020-12-09 21:38:31
793
原创 Towards Large yet Imperceptible Adversarial Image Perturbations with Perceptual Color Distance 论文笔记
00 Abstract论文指出,好的扰动图像,应该既有很强的对抗能力,又在视觉上不易察觉。传统的扰动通常在RGB空间上通过限制 Lp范数的边界来保持不易察觉。而本文放弃了传统的限制方法,改用最小化感知色彩距离的方法来限制扰动,提出了两种方法:PerC-C&W、PerC-AL(Perceptual Color distance Alternating Loss)。其中,第二种方法——Perc-AL在优化 classification loss 和 perceptual color differen
2020-12-08 16:05:06
610
原创 Towards Transferable Targeted Attack 论文笔记
00 Abstract作者指出,对抗样本的一个内在属性就是它的可迁移性。而对于无目标攻击,有目标攻击生成可迁移样本更加困难。主要原因有二:噪声固化现象:在迭代攻击过程中,由于所添加的噪声是每次迭代中梯度动量的累积,这导致成功的扰动在迭代的过程中相似度很高,因此噪声的多样性和可适应性缺乏,导致可迁移性低。仅仅让对抗样本靠近目标分类,而没有远离原真实分类是不够的。为克服这两个问题,论文提出引用 Poincaré distance 作为相似度度量,使得梯度的大小在迭代攻击过程中自适应,以减轻噪声固化
2020-12-07 20:40:07
965
原创 Alleviation of Gradient Exploding in GANs: Fake Can Be Real 论文笔记
参考文章https://blog.youkuaiyun.com/qq_32172681/article/details/99676858http://blog.itpub.net/69946223/viewspace-2658454/知识补充Mode Collapse 模式崩溃对于 GAN 来讲,我们应该关注的点包括生成样本的质量和生成样本的多样性。其中,模式崩溃就是描述生成样本的多样性不足的问题,即生成的样本大量重复类似,比如我们目标生成0-9十个数字,但我们的生成器仅能生成五个数字,这就是模式崩溃问题
2020-12-03 15:56:12
687
原创 ADVHAT: REAL-WORLD ADVERSARIAL ATTACK ON ARCFACE FACE ID SYSTEM 笔记
Abstract论文提出了一种新的、简单的、可以复制的方法,可以在不同的拍摄条件下攻击最佳的公开Face ID系统ArcFace。本文通过在在帽子上粘贴对抗 sticker 的方法来产生攻击。Introduction近些年对深度神经网络的对抗攻击正逐渐被重视,其中一个原因是对抗攻击已经可以在现实世界中被部署。之前提出了对普遍Face ID 模型的攻击方法,但该方法一个缺点是你需要用纸裁剪出复杂的形状,另一个缺点是拍摄条件是固定的。AdvHat的优点如下:通过在帽子上粘贴 sticker 进行攻
2020-10-14 13:52:10
1737
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅