深入理解BN、合并conv+BN公式推导

深入理解BatchNorm

https://www.cnblogs.com/guoyaohua/p/8724433.html

https://www.cnblogs.com/tangweijqxx/p/10678935.html

合bn的原因

在训练深度网络模型时,BN(Batch Normalization)层能够加速网络收敛,并且能够控制过拟合,一般放在卷积层之后。BN 层将数据归一化后,能够有效解决梯度消失与梯度爆炸问题。虽然 BN 层在训练时起到了积极作用,然而,在网络前向推断时多了一些层的运算,影响了模型的性能,且占用了更多的内存或者显存空间。目前,很多先进的网络模型(ResNet,MobileNet,Xception,ShuffleNet 等)都使用了BN技术,因此,我们有必要将 BN 层的参数合并到卷积层,来提升模型前向推断的速度。

BN层与卷积层合并的公式推导

x_{i}=wx+b

y_{i}=\gamma*\frac{x_{i}-\mu _{b}}{\sqrt{\sigma _{b}^{2}+\varepsilon }}+\beta=\frac{\gamma w}{\sqrt{\sigma _{b}^{2}+\varepsilon }}x-\frac{\gamma \mu _{b}}{\sqrt{\sigma _{b}^{2}+\varepsilon }}+\beta

 

 

 

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值