卷积神经网络中的卷积核数目的探讨

卷积神经网络中的卷积核数目的探讨
转自我的知乎文章: https://zhuanlan.zhihu.com/p/666163655
今天来探讨一个卷积神经网络中卷积核数目的问题。

提出问题:

卷积神经网络广泛应用在计算机视觉(cv)领域。

一般来说,一个经典的卷积神经网络架构如下:
在这里插入图片描述

随着层数的加深,特征图越来越小,对于原始图像的处理范围(感受野)越来越大,(如C1到C3所示),这个特点大家一般都会注意到。

但是另外一个特点,随着层数的加深,大体上卷积核的数量(卷积结果通道数)会越来越多,(仍然如C1到C3所示)一般人都会忽略掉。今天讨论的就是这个问题。

以alexnet为例,我们分别来看一下各卷积层卷积核的数量:

第一卷积层:96个卷积核

第二卷积层:256个卷积核

第三卷积层:384个卷积核

第四卷积层:384个卷积核

第五卷积层:256个卷积核

可以看到,从第一卷积层到第四卷积层,卷积核的数目从96增加到了384.(当然,最后一层又下降了。但不影响大体趋势)

那么问题来了?为什么会这样?为什么随着层数加深,卷积核数目越来越多?不变行不行?越来越少行不行?

我们来从卷积网络可视化的角度,从直觉上来解释一下。

正如很多文档里描述的那样,把一个卷积网络各层的卷积核可视化之后,大体上都是类似这样:
在这里插入图片描述

低层的卷积核捕获到的是一些纹理、边缘等简单的几何信息:

越往高层,卷积核捕获到的是简单几何信息的组合信息:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值