初探CNN卷积神经网络
1、概述
- 典型的深度学习模型就是很深层的神经网络,包含多个
隐含层
,多隐层的神经网络很难直接使用BP算法
进行直接训练,因为反向传播误差时往往会发散,很难收敛 CNN
节省训练开销的方式是权共享weight sharing,让一组神经元使用相同的权值- 主要用于图像识别领域
2、卷积(Convolution)特征提取
卷积核
(Convolution Kernel),也叫过滤器filter
,由对应的权值W
和偏置b
体现- 下图是
3x3
的卷积核在5x5
的图像上做卷积的过程,就是矩阵做点乘之后的和
第i
个隐含单元的输入就是:,其中
就是与过滤器filter过滤到的图片
- 另外上图的步长
stride
为1
,就是每个filter
每次移动的距离 卷积特征提取的原理
- 卷积特征提取利用了自然图像的统计平稳性,这一部分学习的特征也能用在另一部分上,所以对于这个图像上的所有位置,我们都能使用同样的学习特征。
- 当有多个
filter
时,我们就可以学到多个特征,例如:轮廓、颜色等
多个过滤器
filter
(卷积核)- 例子如下
- 一张图片有RGB
三个颜色通道,则对应的filter过滤器也是三维的,图像经过每个filter
做卷积运算后都会得到对应提取特征的图像,途中两个filter
:W0和W1,输出的就是两个图像
- 这里的步长stride
为2
(一般就取2,3)
- 在原图上添加zero-padding
,它是超参数
,主要用于控制输出的大小
- 同样也是做卷积操作,以下图的一步卷积操作为例:
与w0[:,:,0]卷积:0x(-1)+0x0+0x1+0x1+0x0+1x(-1)+1x0+1x(-1)+2x0=-2
与w0[:,:,1]卷积:2x1+1x(-1)+1x1=2
与w0[:,:,2]卷积:1x(-1)+1x(-1)=-2
最终结果:-2+2+(-2)+1=-1
(1为偏置)
3、池化(Pooling)
- 也叫做下采样
Pooling
过程- 把提取之后的特征看做一个矩阵,并在这个矩阵上划分出几个不重合的区域,
- 然后在每个区域上计算该区域内特征的均值或最大值,然后用这些均值或最大值参与后续的训练
-下图是使用最大
Pooling
的方法之后的结果
Pooling
的好处
- 很明显就是减少参数
Pooling