Adversarial Examples Improve Image Recognition阅读笔记

Adversarial Examples Improve Image Recognition

对抗样本普遍被看作卷积网络的威胁。

Here we present an opposite perspective:

adversarial examples can be used to improve image recognition models if harnessed in the right manner.

对抗样本可以被用于改进图像识别模型如果用正确方式来利用的话。

AdvProp

我们方法的关键是一个对于对抗样本单独的辅助batch norm的使用,因为它们与正常样本具有不同的底层分布。

1 介绍

之前的工作展现了使用对抗样本训练可以增强模型泛化但是限制于某些条件:1.小数据集 mnist 监督学习 2.大数据集 半监督

最近的工作也提出在大数据集如ImageNet使用对抗样本训练,使用监督学习的方式会在干净图像上的表现退化。

总之,这留下了一个开放式的问题关于怎么对抗样本可以被用于有效地帮助视觉模型。

我们观察到所有之前的结合干净图像和对抗样本的方法都没有进行区分,尽管他们来自不同的底层分布。

本文提出AdvProp缩写 Adversarial Propagation,一种新的训练方案,可以用简单但是高效的两个batchnorm方法来弥补分布不匹配。两个batchnorm适当地分离了两个分布。我们展示了这种分布分离是至关重要的,它使我们能够通过对抗样本成功地改进而不是降低模型性能。

据我们所知,我们的工作是第一个展现了在监督学习的设定下在大规模ImageNet数据集上对抗样本是可以改善模型的性能的。

2 相关工作

Adversarial Training 

VAT 、deep co-training 半监督的方法

adversarial robustness和 standard accuracy之间的trade off证明是不可避免的

然和本文从相反的角度出发使用对抗样本提高standard accuracy

Benefits of Learning Adversarial Features

许多工作证实了对抗训练为卷积网络带来了更多的特性:

  • 与干净图像相比,对抗性示例使网络表示更符合显著数据特征和人类感知
  • 这样训练的模型对高频噪声更具鲁棒性
  • 这些对抗学习出的特征表示对纹理失真不太敏感,更关注形状信息。

我们提出的AdvP

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值