Learning Deconvolution Network for Semantic Segmentation

本文探讨了深度学习中反卷积网络的局限性,并介绍了一种新的深度反卷积网络,该网络通过多级反卷积、反池化及ReLU操作解决了FCN预定义固定大小感受野的问题,增强了对不同尺度物体的捕捉能力。相较于传统FCN,在VOC12数据集上的实例分割任务取得了更好的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原创文章,引用请注明出处:http://blog.youkuaiyun.com/tonyyang1995 谢谢!

最近在读深度学习中深度学习的论文,老板要写总结所以顺便发上来记录一下。

Learning Deconvolution Network for Semantic Segmentation 这篇论文主要优化的是传统反卷积网络的一些limitation。

传统FCN 存在的limitation:
1. 它的network pre-defined a fixed size receptive field(这个会导致比这个field 大或者小的object会fragment 或 mislabel,而且比较小的物体可能会被忽略或者被分类成背景)
这里写图片描述
2. 物体的具体结构可能会消失 因为输入的label map 比较粗糙而且deconvolution 的操作比较简单
这里写图片描述
所以即使已经使用了CRF 但是效果还是不太好。

为了解决这些问题:
作者提出了一个深度的反卷积网络。
这个网络由多个deconvolution,unpooling,relu组成。
训练的network 是应用于单独的object proposal 来获得instance-wise 分割
在VOC12 的数据集上的表现比其他的FCN-based method 要好。
它的结构图如下:
这里写图片描述
从这个图我们可以看出它的convolution 和deconvolution 是镜像的。

这里作者使用了unpooling 操作顾名思义就是把polling的操作反过来,但是因为pooling的操作不可逆,这个unpooling操作只能把传进来的特征按照原来的位置重新摆放,近似pooling 前的卷积特征。
这里写图片描述

deconvolution
这里写图片描述
这里parameter 是可以学习的。

在论文中,作者对于deep deconvolution network 的分析后发现: 越complex 的能够capture更多的细节。
这里写图片描述
从上图中我们可以发现越深的Deconvolution network 更加能够把握原图的细节信息。

而与FCN8 对比之后也证明了这一点:
这里写图片描述

而对于deep network 中local optima 的问题,作者提出了
1. batch normalization
2. two-stage training
这两个方法来解决。(这里现在仅仅知道这样有效,还不能理解为什么这样就有效,所以仅列出其方法,求大神讲解)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值