卷积与池化--初步理解

本文介绍了卷积神经网络中的卷积和池化操作。卷积通过可训练的滤波器提取图像特征,多通道卷积允许同时处理多个特征。 padding和stride控制输出尺寸。池化用于降低维度,常见类型包括平均池化和最大值池化,提供平移不变性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

“卷积”来源于信号处理领域。在图像处理中的卷积:先将卷积核先转180度,然后在输入中的对应位置取出一个大小为卷积核大小的区域,然后与旋转后的卷积求内积,得到对应位置的输出。

这里用到了两个例子,一个是一阶算子Sobel以及二阶算子Laplacian。不同的卷积可以提取到不一样的特征。

深度学习中的卷积

单通道卷积

在深度学习中,卷积不需要旋转,就不放入公式了。直接看例子:

 假设输入为一个5x5的矩阵,卷积核是3x3的,进行卷积计算,得到输出结果。其中蓝色的计算:

图像处理中使用的卷积核是人工确定的,深度学习中的卷积核参数是可训练的。

每个卷积核提取到输入的某种特征,为了增加特征的丰富程度,我们常常会使用多个卷积核,用一个三维的张量表示:,那么输出的结果为:。我们称卷积得到的输出为特征图(feature map)。

我们可以看到卷积过后的结果,维度变小了,这是输入的边界导致的,因为卷积的起始位置无法取到输入的每一个位置,由此,会导致多次卷积过后,输出的尺寸越来越小;而且处于边界的像素对于输出的影响越小,因为中间会参与多次卷积计算,而边缘部分不会。这就导致边缘的信息丢失

为了解决上述问题,可以对边缘进行0值填充(padding),这样可以使输出的尺寸与输入的尺寸保持一致,其中padding=1,表示填充一圈0。输入的尺寸就变为(W+2,H+2),如:

输出的特征图尺寸不仅与padding有关,还与卷积的步长有关,上面是标准的卷积(步长为1),如果步长(stride) =2:

 多通道卷积

将上面的单通道卷积拓展到多通道,多通道卷积的过程可以看做是一个3D的卷积核滑过输入层。(特别注意的是,输入层和卷积核有相同的深度)

这里的输出还是一个值,因为这里用的是张量的点积运算。
具体看一位大佬的总结或者其他大佬的:感谢大佬!本人也在学习中。。。
张量基础学习 (三 张量代数运算———上)_西瓜皮装猕猴桃的博客-优快云博客_张量的并积
张量基础学习(四 张量代数运算——下)_西瓜皮装猕猴桃的博客-优快云博客_张量的缩并

池化

池化操作的主要目的是降维,以降低计算量。并在训练初期提供一些平移不变性。常用的池化操作有:平均池化以及最大值池化。

池化操作就是使用一个固定大小的滑块在输入上滑动,每次都将滑窗内的元素聚合为一个元素输出。

通常步长与滑窗的大小相等。对于多通道的输入,池化是逐通道进行的,因此不会改变输入的通道数。

池化技术总结_中科哥哥的博客-优快云博客_池化技术

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值