卷积神经网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。它的特殊性体现在两个方面,一方面它的神经元间的连接是非全连接的(局部感受野), 另一方面同一层中某些神经元之间的连接的权重是相同的(权值共享)。局部感受野和权值共享这两大神器使CNN更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。
CNN的结构
卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。
1、卷积层: 每一个神经元从上一层的局部感受野得到输人,因而迫使它提取局部特征。一旦一个特征被提取出来, 只要它相对于其他特征的位置被近似地保留下来,它的精确位置就变得没有那么重要了。卷积层是由多个特征映射组成的,每个特征映射都是平面形式的。同一个平面中单独的神经元在约束下共享相同的权值,这种结构形式具有如下的有益效果:a.平移不变性。b.自由参数数量的缩减(通过权值共享实现)。做完卷积后需要采用激活函数激活神经元。
2、降采样层:每个卷积层后面跟着一个实现局部平均和子抽样的降采样层,一般采用最大池化或平均池化操作,由此特征映射的分辨率降低。这种操作具有使特征映射的输出对平移和其他形式的变形的敏感度下降。
3、全连接层:全连接的方式,认为下一层的输出与上一层所有输入都有关。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核为1x1的卷积;而前层是卷积层的全连接层可以转化为卷积核为h*w的全局卷积,h和w分别为前层卷积结果的高和宽。
下图是一个卷积网络的实例,即大名鼎鼎的LeNet-5(识别数字的卷积网络)。