批量归一化

引言

数据预处理对结果很重要,例如处理数据时的标准化输入特征,将参数量级统一,配合优化器使用。

中间层变量变化可能范围大,需要对学习率补偿调整

更深层的网络复杂,容易过拟合

作用

作用于深层网络

可使用大Learning rate,加速收敛

不改变精度

方式

batch范围

单个batch无法使用,其减去均值为0。

batch范围50-100,中等小批量

计算方式

在每个batch中计算均值与方差

        

                  最后一项>0,防止除以0

批量归一化

       

                γ与β为可学习参数

作用位置

全连接、卷积输出上,激活函数前

全连接、卷积输入上

(全连接的特征维,卷积通道维)

小结

最初文章:减少内部协变量转移

后续研究:通过小批量加入噪音,控制模型复杂度,类似于正则化。因而不与dropout一同使用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值