上采样的几种方法

在做图像语义分割的时候,编码器通过卷积层得到图像的一些特征,但是解码器需要该特征还原到原图像的尺寸大小,才可以对原图像的每个像素点进行分类。从一个较小尺寸的矩阵进行变换,得到较大尺寸的矩阵,在这个过程就是上采样。

常见的上采样的方法有(1)插值法(最邻近插值、双线性插值等) (2)转置卷积(又称为反卷积) (3)上采样(unsampling)(4)上池化(unpooling)

插值法

插值法不需要学习任何的参数,只是根据已知的像素点对未知的点进行预测估计,从而可以扩大图像的尺寸,达到上采样的效果。常见的插值方法可以参考这篇文章:https://blog.youkuaiyun.com/stf1065716904/article/details/78450997

转置卷积

与插值法不同,转置卷积需要学习一些参数。我们知道卷积操作如果不加padding会使图像尺寸缩小;相反地,转置卷积(反卷积)会让图像的尺寸增大。这篇文章介绍转置卷积非常详细:https://blog.youkuaiyun.com/LoseInVain/article/details/81098502

这里对该文章做一下简单的概括。假如我们对一个 4∗44*444 的原图像矩阵,用 3∗33*333 的卷积核做 stride为1、padding为 0 的卷积,则会得到一个 2∗22*222 的特征图矩阵。该卷积的过程可以等价为矩阵的乘法:在上述卷积中, 3∗33*333 的卷积核可以转化为 4∗164*16416 的卷积矩阵, 4∗44*444 的原图像转化为 16∗116*1161 的向量,两者进行矩阵乘法可得到 4∗14*141 的向量,最后resize为 2∗22*222 的特征图矩阵。

所以重点来了,拥有一个 4∗164*16416 的卷积矩阵,可将 4∗44*444 的图像变为 2∗22*222;那么,如果拥有一个 16∗416*4164 的矩阵,可将 2∗22*222 的矩阵变为 4∗44*444

假如现在的图像尺寸是 2∗22*222,要将其恢复到 4∗44*444。首先将其转化为 4∗14*141,再与卷积矩阵的转置矩阵 16∗416*4164做乘法,可以得到 16∗116*1161 的向量,最后resize为 4∗44*444 的图像矩阵。

转置卷积的矩阵并不是正向卷积矩阵直接转置得到,而只是维度上与正向卷积矩阵构成了转置关系。转置卷积也不是标准意义上的卷积,但可以当作卷积来使用。在实践中,可以先将原始矩阵做上池化(即在中间部分填0),再做正向卷积,这样的效果和转置卷积是相同的。

unsampling

在这里插入图片描述

unsampling 就是在直接将特征图的元素进行复制,以扩充feature map

unpooling

在这里插入图片描述

unpooling 与 unsampling 类似,只是变为用 0 元素对特征图进行填充

UNet网络中的上采样技术主要用于从编码器传递到解码器的过程中,以恢复特征图的空间分辨率,并与编码器中提取的高维语义信息结合,实现像素级别的分割。常用的上采样方法包括以下几种: 1. **反卷积(转置卷积)** 反卷积是UNet中最常见的上采样方式。它通过学习的方式将低分辨率的特征图映射到更高分辨率的空间。这种方法具有可学习参数,能够根据任务需求自适应地调整特征映射[^1]。在UNet中,通常使用`2x2`的核大小和步长为2的反卷积操作来实现特征图尺寸的翻倍。 2. **插值法(如双线性插值、最近邻插值)** 插值法是一种非学习型的上采样方法,常用于简单的图像放大或作为替代方案。例如,双线性插值可以提供更平滑的结果,而最近邻插值则保留了原始像素块状结构[^1]。虽然这些方法不能通过训练优化,但在某些轻量级模型或对精度要求不高的场景下仍然适用。 3. **亚像素卷积(Pixel Shuffle)** 该方法通过重新排列低分辨率特征图上的通道信息来生成高分辨率图像。其核心思想是将一个低分辨率的多通道特征图转换为高分辨率的单通道输出。这种方法在一些改进型UNet结构中被采用,尤其适用于需要高效计算的场景。 4. **可变形卷积(Deformable Convolution)** 虽然不是传统意义上的上采样方法,但可变形卷积可以通过学习偏移量来增强特征图的空间变换能力,从而间接提升上采样的效果。这种技术在一些高级变体UNet架构中被引入,以提高模型对几何形变的鲁棒性。 5. **注意力机制辅助的上采样** 在一些改进型UNet(如Attention UNet)中,引入注意力机制来指导上采样过程,使模型能够聚焦于重要的区域。这种方式提升了分割结果的细节质量,尤其是在处理复杂背景或小目标时表现更为优异。 ### 示例代码:使用PyTorch实现基于反卷积的上采样 ```python import torch import torch.nn as nn class UpConv(nn.Module): def __init__(self, in_channels, out_channels): super(UpConv, self).__init__() self.up = nn.ConvTranspose2d(in_channels, out_channels, kernel_size=2, stride=2) def forward(self, x): return self.up(x) # 实例化上采样模块 upconv = UpConv(64, 32) input_tensor = torch.randn(1, 64, 32, 32) # 输入特征图 (batch, channels, height, width) output_tensor = upconv(input_tensor) # 输出特征图尺寸变为 (1, 32, 64, 64) ``` 上述内容涵盖了UNet网络中主流的上采样技术及其特点。每种方法各有优劣,选择哪种取决于具体应用场景、计算资源以及对分割精度的要求。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值