卷积和池化的区别

本文详细解释了深度学习中卷积与池化的概念及应用。卷积通过特征探测器提取图像特征,池化则通过简化计算降低过拟合风险。文章还介绍了两者在实际计算中的注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

卷积和池化的区别

12540人阅读 评论(0) 收藏 举报
分类:
Deep Learning(深度学习)(12)
1、卷积
当从一个大尺寸图像中随机选取一小块,比如说 8x8 作为样本,并且从这个小块样本中学习到了一些特征,这时我们可以把从这个 8x8 样本中学习到的特征作为探测器,应用到这个图像的任意地方中去。特别是,我们可以用从 8x8 样本中所学习到的特征跟原本的大尺寸图像作卷积,从而对这个大尺寸图像上的任一位置获得一个不同特征的激活值。


 下面给出一个具体的例子:假设你已经从一个 96x96 的图像中学习到了它的一个 8x8 的样本所具有的特征,假设这是由有 100 个隐含单元的自编码完成的。为了得到卷积特征,需要对 96x96 的图像的每个 8x8 的小块图像区域都进行卷积运算。也就是说,抽取 8x8 的小块区域,并且从起始坐标开始依次标记为(1,1),(1,2),...,一直到(89,89),然后对抽取的区域逐个运行训练过的稀疏自编码来得到特征的激活值。在这个例子里,显然可以得到 100 个集合,每个集合含有 89x89 个卷积特征。

 如下图所示,展示了一个3×3的卷积核在5×5的图像上做卷积的过程。每个卷积都是一种特征提取方式,就像一个筛子,将图像中符合条件(激活值越大越符合条件)的部分筛选出来。

Convolution schematic.gif

2:说下池化,其实池化很容易理解,先看图:

  转自:  http://blog.youkuaiyun.com/silence1214/article/details/11809947


比如上方左侧矩阵A是20*20的矩阵要进行大小为10*10的池化,那么左侧图中的红色就是10*10的大小,对应到右侧的矩阵,右侧每个元素的值,是左侧红色矩阵每个元素的值得和再处于红色矩阵的元素个数,也就是平均值形式的池化。

3:上面说了下卷积和池化,再说下计算中需要注意到的。在代码中使用的是彩色图,彩色图有3个通道,那么对于每一个通道来说要单独进行卷积和池化,有一个地方尤其是进行卷积的时候要注意到,隐藏层的每一个值是对应到一幅图的3个通道穿起来的,所以分3个通道进行卷积之后要加起来,正好才能对应到一个隐藏层的神经元上,也就是一个feature上去。

### 膨胀卷积池化层的区别 #### 区别 膨胀卷积通过在标准的卷积核中注入空洞来增加感受野,相比普通的卷积操作多了一个超参数——空洞率(dilation rate)。该参数决定了内核元素间的间隔数量,在保持相同计算量的同时能够扩展模型的感受野[^2]。 而池化是一种下采样的方法,用于减少数据维度并提取主要特征。它模仿人类视觉系统的机制来进行特征降维,常见的形式包括最大池化、平均池化以及随机池化。值得注意的是,池化层并不涉及可训练参数的学习过程[^3]。 #### 作用 膨胀卷积的主要目的是扩大网络的感受野而不显著增加计算成本或参数数目,这有助于捕捉更广泛的空间上下文信息,尤其适用于处理具有不同尺度的对象检测等问题。然而,这种方法可能会引起所谓的“棋盘效应”,即某些位置的信息被过度稀疏地采样而导致细节损失[^1]。 相比之下,池化的功能在于降低空间分辨率,从而减少后续层所需处理的数据量,并增强对输入变化的鲁棒性;此外还可以防止过拟合现象的发生。由于不包含任何学习到的权重,因此不会引入额外的复杂度。 #### 场景应用 对于需要较大范围感知的任务,比如遥感图像中小目标实例分割,采用膨胀卷积可以有效提升性能,因为它能够在维持较低运算强度的前提下获得更大的视野覆盖面积。 另一方面,当面临高维数据集时,利用池化技术可以帮助简化表示结构,使得深层神经网络更容易收敛于最优解。特别是在计算机视觉领域中的分类问题上,池化经常作为构建高效架构的关键组件之一出现。 ```python import torch.nn as nn # Example of dilated convolution layer with dilation rate=2 dilated_conv_layer = nn.Conv2d(in_channels=3, out_channels=64, kernel_size=3, stride=1, padding=2, dilation=2) # Example of max pooling layer max_pooling_layer = nn.MaxPool2d(kernel_size=2, stride=2) ```
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值