深度学习(2)卷积神经网络卷积层1*1卷积核

深度学习(2)

卷积核

卷积神经网络中卷积核的作用是提取图像更高维的特征,一个卷积核代表一种特征提取方式,对应产生一个特征图,卷积核的尺寸对应感受野的大小。

经典的卷积示意图如下:
在这里插入图片描述
5 * 5 的图像使用3*3的卷积核进行卷积,结果产生3 * 3(5-3+1)的特征图像。

  • 卷积核的大小一般是 (2n+1)*(2n+1) 的奇数乘奇数大小(n>=1),最常用的有 3* 3,5* 5,7* 7 的。之所有使用奇数 * 奇数而不是偶数 * 偶数大小的,主要原因有两点:
  1. 一般情况下,使用n * n大小的卷积核对大小为N*N的图像卷积,结果图像尺寸缩小为(N-n+1),这种卷积操作的都是图像上真实的像素,不需要对图像进行扩充,也叫有效补白(Valid Padding)。
    另一种补白方式是相同补白(Same Padding),在卷积核对图像执行相同补白(Same Padding)卷积时,要求卷积后图像大小跟原图像大小保持一致,这就需要提前给原图像做Padding(补白)操作,即给图像增加额外的空白,增大图像尺寸使得卷积后大小为原图像大小,Padding操作示意图如下:
    在这里插入图片描述
    在相同补白(Same Padding)模式下,需要补充的像素大小是N-(N-n+1)= n-1个,这里的n表示的是卷积核大小,如果n为奇数,则n-1为偶数,补得这n-1个像素可以在图像两侧对称分布,如果使用偶数的卷积核,n-1为奇数,无法在图像两侧对称分布。

  2. 奇数卷积核有中心点,可以方便的确定位置,而偶数的卷积核不存在绝对的中心点。

1*1 卷积核

在残差网络的Bootleneck残差模块和GoogleNet的Inception模块里出现了1*1的卷积核:

在这里插入图片描述

  • 与(2n+1) * (2n+1)的卷积核提取图像特征顺便降低图像尺寸不同,1*1的卷积核的作用是 提升或者降低特征(个数)的维度,而不改变图像的宽高 。这里的维度是指图像的通道数(厚度,如RGB图像的通道数是3, 10个单通道的特征图一起组成通道数是10)。

例如经过某次卷积后,得到WH10的特征图,这里通道数是10,如果需要降维成WH6,即把10个特征图减少到6个。这就需要使用6组,每组10个的11的卷积核来实现。10个11的卷积核和上一层WH10的特征图卷积,得到一个WH1的特征图,使用6组这样的11卷积核,就可以得到WH6维度的特征图,实现了特征图的压缩,而不改变图像的宽高。这里一共有610=60个可训练参数。
同理,使用1*1卷积核也可以实现特征图升维。

从图像处理的角度看1*1的卷积操作,可以把它理解成是把N个图像按N个不同的系数融合的操作,需要多少个特征图就融合多少次。
.
.
参考原文链接:https://blog.youkuaiyun.com/dcrmg/article/details/79222164
.
.

.

  • 得到的都是侥幸,失去才是常态!
  • 钱到用时方恨少,点赞不够吃不饱,手有余香请点赞,您要赏点我不敢!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值