论文笔记-深度估计(2) Fully Convolutional Networks for Semantic Segmentation

本文深入探讨了全卷积网络(FCN)在语义分割中的应用,介绍了如何将预训练的VGG、AlexNet和GoogleNet模型转化为FCN,以及FCN如何通过反卷积得到与输入相同大小的输出。FCN避免了patch训练的冗余,采用全局和局部信息结合的策略提高分类精度,展示了全卷积网络在解决像素级分类问题的优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.介绍

该文讲述的是语义分割,但思路和框架和深度恢复是十分相似的,毕竟当前语义和深度问题本质上是一个像素级的分类问题。从该文3000+引用用量也可见该文章的巨大启发效果。

所谓全卷积网络,是指由仅由卷积层、池化层和非线性激活函数层交错组织起来的网络。

作者的贡献在于将非常热门且有效地做分类的卷积网络应用于语义分割中。整个框架是接受整张图像作为输入,用卷积做一个coarse的分类输出,然后将这些输出与每个像素联系在一起,得到最后的像素级别的语义分类结果输出。主要改进如下:
这里写图片描述

可以看出,作者将全连接层改为卷积层。
全连接层可以看成核大小为图像边长的卷积层,感知到整张图像。所以相对于全连接层,普通的核很小的的卷积层只能感知上一层中的区域信息,所谓卷积层能很好地保持空间信息(不剧烈变化),有“spatial output”,而全连接层只有“non-spatial output”。而且卷积层可以随意调整输出大小(一般是降采样,即图像变小),得到coarse 的输出。

作者分别使用了pretrained VGG,AlexNet和自己实现的GoogleNet。将上述模型后半的全连接层改为卷积层。这样这些模型就成了FCN了。再加上一个1x1x21(有21种类别)的卷积层作为预测输出,得到缩小的语义map。最后再对输出进行反卷积得到最终和原图同等大小的输出。

2.patch training 与fully convolutional training

语义分割是对每个像素x分类,假如将整个图像作为输入,那么与x所在的object距离较远的图像部分对x的分类将毫无作用。因此以前的做法是将图像分为很多块,每次epoch是随机选择整个训练集上的n个图像块作为mini batch来做一次训练。这就是所谓的“ patch training ”。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值