[CNN] 卷积神经网络中feature map和卷积核个数的概念解释

本文详细解析了卷积神经网络中的featuremap概念及其数量如何影响网络的表现力。阐述了featuremap数量随网络深度变化的原因,并解释了多层网络中卷积核通道数的匹配规则。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

feature map(下图红线标出) 即:该层卷积核的个数,有多少个卷积核,经过卷积就会产生多少个feature map,也就是下图中 `豆腐皮儿`的层数、同时也是下图`豆腐块`的深度(宽度)!!这个宽度可以手动指定,一般网络越深的地方这个值越大,因为随着网络的加深,feature map的长宽尺寸缩小,本卷积层的每个map提取的特征越具有代表性(精华部分),所以后一层卷积层需要增加feature map的数量,才能更充分的提取出前一层的特征,一般是成倍增加(不过具体论文会根据实验情况具体设置)!

PS:关于多层网络卷积核的channel问题:

       如果上一层输出64个featuremap ,下一层的filter 的channel 就会变为64(必须这样),一个filter做卷积的话将会在64个featuremap组成的64channel上做,如果有128个filter,将再次生成128个featuremap,而不是128*64:
       也就是在多层卷积网络中:下一层的filter的channel数= 上一层的featuremap数(kernel数量),如果不相等就没办法继续做卷积了。我们知道随着网络的加深,filter卷积核(是三维的:长、宽、深channel,不算batch)将会越来越深,或者说这个卷积核越来越细长,观察下图,也就直观上能够理解,为什么越深网络基本上卷积核数量会设置的越大,因为这么细长的卷积核做一次卷积才生成一个很小的featuremap ,是无法提取出足够的特征的
 代码:

以tensorflow的 API 为例:

tf.nn.conv2d(
    input,
    filter,
    strides,
    padding,
    use_cudnn_on_gpu=True,
    data_format='NHWC',
    dilations=[1, 1, 1, 1],
    name=None
)

filter的维度为:[filter_height, filter_width, in_channels, out_channels],out_channels即为featuremap数量

 第一层、二层卷积核分别为W1,W2,则:

  # W1 : [4, 4, 3, 8]
  # W2 : [2, 2, 8, 16]  其中W2[2] = W1[3]

                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                          

 

 

 

 

评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值