【动手学习pytorch笔记】15.批量归一化 BatchNorm(BN)

本文介绍批量归一化(Batch Normalization, BN)技术如何解决训练过程中前面层的变化影响后续层的问题,通过标准化每一批次的数据来加速深层神经网络的训练过程,并减少对权重初始化的依赖。

BatchNorm(BN)

遇到了问题

  • 损失函数在最后,后面的层训练较快

  • 数据输入在最底部

    • 前面的层训练的慢

    • 前面的层一变,所有都得跟着变

    • 最后的层需要重新学习多次

    • 导致收敛变慢

  • 我们可以在学习底部层的时候避免变化顶部层吗?

所以提出了批量归一化BatchNorm(BN)

固定小批量里的均值和方差
μB=1∣B∣∑i∈BxiσB2=1∣B∣∑i∈B(xi−μB)2+ϵ \mu_B = \frac{1}{|B|}\sum_{i\in{B}}x_i \\σ_B^2 = \frac{1}{|B|}\sum_{i\in{B}}(x_i - \mu_B)^2 + \epsilon μB=B1iBxiσB2=B1iB(xi

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值