Batch Normalization层作用
在网络隐层中Batch Normalization层一般在激活函数前, 主要起到两个作用:
1. 通过计算均值和方差两个参数, 避免上一层的卷积层产生的数据偏移较大, 最终落在激活函数梯度接近为0的区域, 造成递度弥散.
2. 本层自学习缩放因子γ和移位因子β(输入每个通道一组), 这两个参数会抵消均值和方差两个参数的部分作用, 从而避免数据落在0附近的线性区域, 增加模形的非线形学习能力.
在模形训练过程中, 两种功能相互制约, 最终找到一个平衡点.
Relu与Batch Normalization
由于Relu在0位置截断, 且没有梯度弥散现象, Batch Normalization层的这两种作用相对有限. 故有以下两种组合:
1. 对于大网络, Batch Normalization放在Relu后会更好, 模型的每个卷积层更需要前一层归一化的input, 有利于特征层学习的稳定性, 以加速卷积层学习.
2. 对于小网络, Batch Normalization放在Relu之前会更好, Batch Normalization的会通过第二种作用尽量最大化Relu的非线性学习能力.
个人观点, 欢迎讨论.
参考资料:
https://www.cnblogs.com/guoyaohua/p/8724433.html
https://www.zhihu.com/question/283715823