CNN中的卷积和池化个人理解

针对于图像识别中常用的CNN,其原理中的卷积层和池化层是最让人不好理解的。在看完各位大佬的解释后,小弟趁热打铁把目前的理解做个简单的总结。
以下纯属个人理解,如有错误,请指正。

卷积:通过filter在输入矩阵中按照一定步长(stride)去无间隙的扫描。
在这里插入图片描述
拿图像处理为例,出去常见的二维平面,增加了一个深度(depth)的维度,其中深度可以理解为三维平面。filter的深度必须与输入样本是一致的,就像三维中的3个平面,filter就是三位中的对应不同层面的。由于在扫描过程中,矩阵中间的元素被扫描到的概率会更大一些,所以为了平衡边缘元素被扫描到的概率,所以增加了一个pad概念,即在整个矩阵外围增加一圈0,pad=n, 就增加n全0。卷积层在整个卷积神经网络中可以有多个。最终经过卷积层输出的结果的深度就是filter的个数。那么数据结果的尺寸又是多大呢?如下:
h(in)是输入的h大小,,w(in)是输入的w大小,Filter是卷积探头个数,Pad是增加的圈数,stride是步长
通过整个卷积过程,可以将卷积的操作理解为对输入样本的特征提取和一定程度上的降维。即卷积就是上采样

池化(Pooling):池化的过程是一种降维压缩的过程
在这里插入图片描述
在池化filter下,根据设定的Pooling方式来对扫描的区域进行降维,常用的是Max和Mean,经过扫描后,提取扫描区域中的max或者mean,这是前向反馈。
在这里插入图片描述
在反向传播过程中,Pooling层会将残差按照Pooling方式将残差传入对应的矩阵位置。如果当时选择的Max,则会将残差传入当时Max的矩阵位置;如果是mean,Pooling会将残差取mean,然后传入矩阵每一个位置。
在这里插入图片描述
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Chaos_Happy

可以针对性解决大家问题

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值