Batch Normalization & Weight Initialization.

Batch Normalization

因为在深度神经网络中随着训练得进行,每一个隐层的参数不断的发生变化导致每一层的激活函数的输入发生改变,这与机器学习领域的假设:训练数据和测试数据的同分布是不符合的。所以会造成以下的问题:

  • (如果不scaling) 激活输入值分布的偏移,导致数据向线性函数的取值区间的上下线两端靠近,导致梯度消失/爆炸的问题,这就是问什么会训练速度降低的原因。(可以采用小的learning rate改善)

  • 如果不采用这种多层之间协调(学习均值和方差)更新的策略,而使用逐层的白化操作,即在每个梯度下降更新参数后重新标准化,那么一层中参数的变化会造成其他参数层的剧烈变化,那么学习算法会反复改变均值和方差(w发生了变化),然后再用标准化反复抵消这种变化,导致训练速度降低甚至无法收敛。

    这里写图片描述
    而BN算法就是(通过学习参数)将数据强行拉到均值为0,方差为1的比较标准的正态分布。但是这样子导致的问题是:只利用到了线性区域而导致深层无意义,使得模型的表达能力下降。为了保证非线性的获得,用y = scale*x + shift,将数据移动或者伸缩。
    这里写图片描述

优势

这里写图片描述


Weight Initialization

https://www.leiphone.com/news/201703/3qMp45aQtbxTdzmK.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值