[深度学习论文笔记][arxiv 1805] Why do deep convolutional networks generalize so poorly to small image transf

本文分析了深度卷积网络在处理小图像变换时表现不佳的原因,指出网络结构(尤其是降采样)和训练数据分布偏差是两大关键因素。尽管网络设计了增强鲁棒性的模块,但在实际实验中,如InceptionResNet-V2等模型在面对微小图像变化时,分类性能下降。作者强调,降采样操作破坏了平移不变性,并且现有数据集中的物体位置和尺寸分布偏置阻碍了网络学习这种不变性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

[arxiv 1805] Why do deep convolutional networks generalize so poorly to small image transformations?

Aharon Azulay and YairWeiss

from Hebrew University of Jerusalem

paper link

Introduction

深度卷积网络在设计时采用了诸如max池化等模块来提高模型对输入图像中可能存在的微小平移、旋转和变形的鲁棒性。以期深度分类网络在面对人类可以轻松应对的图像变化时,也能有稳定的分类性能。

但是在作者的实验中,深度分类网络并没有表现出预期的性质。以在Imagenet数据库上预训练的InceptionResNet-V2模型为例,在一些肉眼难以感受的图像变化下,网络分类的置信概率会发生较明显的变化,如下图所示。同时对于越深的网络这种现象越显著,例如InceptionResNet-V2的现象显著于ResNet-50显著于VGG16。

这里写图片描述

这篇文章中,作者对深度卷积网络不能很好应对图像微小变化(重点在于微小平移)的原因做了两点猜测和探究:

  1. 网络自身结构(特别是降采样)的原因;
  2. 训练数据分布偏差的原因。

Ignoring the Sampling Thereom

作者认为第一点造成该现象的原因在于网络自身的结构。详细来说是在于网络中的降采样导致的。理论上讲,如果网络全是不带有步长(stride)的卷积操作,则输入像素在空间上的微扰也应该反映在输出特征上。即图像变化时,特征结果没有发生数值变化,而是仅仅随着在空间上相应的移动。但是网络中存在了具有步长的降采样操作后,如[1]中所说,输入信号必须在平移了降采样倍数整数倍的时候才能显示出特征的平移不变性。

We cannot literally expect translation invariance in a system based on

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值