深入理解Batch Normalization

Batch Normalization层作用

在网络隐层中Batch Normalization层一般在激活函数前, 主要起到两个作用:
1. 通过计算均值和方差两个参数, 避免上一层的卷积层产生的数据偏移较大, 最终落在激活函数梯度接近为0的区域, 造成递度弥散.
2. 本层自学习缩放因子γ和移位因子β(输入每个通道一组), 这两个参数会抵消均值和方差两个参数的部分作用, 从而避免数据落在0附近的线性区域, 增加模形的非线形学习能力.

在模形训练过程中, 两种功能相互制约, 最终找到一个平衡点.

Relu与Batch Normalization

由于Relu在0位置截断, 且没有梯度弥散现象, Batch Normalization层的这两种作用相对有限. 故有以下两种组合:
1. 对于大网络, Batch Normalization放在Relu后会更好, 模型的每个卷积层更需要前一层归一化的input, 有利于特征层学习的稳定性, 以加速卷积层学习.
2. 对于小网络, Batch Normalization放在Relu之前会更好, Batch Normalization的会通过第二种作用尽量最大化Relu的非线性学习能力.

个人观点, 欢迎讨论.

参考资料:
https://www.cnblogs.com/guoyaohua/p/8724433.html
https://www.zhihu.com/question/283715823

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值