卷积神经网络入门
1. 特征图与卷积、池化层概述
在卷积神经网络(CNN)中,图中的输出被称为特征图,因为它是卷积核在输入上卷积的响应。卷积核在图像上卷积能够提取图像中的特征,所以卷积层使用的卷积核的输出就被称为特征图。
CNN中有两个新的层值得研究:卷积层和池化层。在基本的CNN中,卷积操作作用于二维输入集,这里的集指的是二维数组的堆叠,第三维表示通道数或特征图的数量。与其他模型不同,这里的输入是完整的图像,而非从图像创建的向量。不过,卷积操作并非只能作用于二维输入,一维和三维卷积也存在,但与二维卷积相比,它们很少被使用。
池化层用于通过某种规则组合输入值来减少输入的空间维度。最常见的规则是最大值池化,即保留在输入上移动的小区域中的最大值,丢弃其他值。
现代网络还可以使用许多其他类型的层,其中很多在Keras中已经直接支持,也可以添加自定义层。对于一个层要有可学习的权重,该层在数学意义上需要是可微的,这样才能使用链式法则计算偏导数,在梯度下降过程中调整权重。
2. 数据在CNN中的传递
以图为例,CNN的输入是一个28×28×1的图像。第一个卷积层的输出是26×26×32,意味着有32个特征图,每个特征图是从单个28×28×1输入图像计算得到的26×26图像。第二个卷积层的输出是24×24×64,这是从第一个卷积层的输出(26×26×32)得到的64个特征图。
第一个卷积层后的池化层将24×24×64的输入缩减为12×12×64。“max”标签表明池化操作是取2×2区域的最大值,由于输入是2×2,只返回一个值,所以每个24×24的输入被缩减为12×12的输出,该过程应用于每个特征图。
超级会员免费看
订阅专栏 解锁全文
1038

被折叠的 条评论
为什么被折叠?



