41、BatchNorm - 什么是批归一化

批归一化(BN)是解决深度学习模型训练中数据分布不一致问题的技术,它通过在每个mini-batch上进行标准化,确保各层输出数据的均值接近零,标准差接近1,从而加速训练、抑制梯度消失和爆炸,提高模型的泛化能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在 CNN 网络中有一个很重要的技术,叫作批归一化(bn, BatchNorm )。

归一化层一般位于卷积的后面,学术或者工程上,一般习惯将卷积+批归一化+激活统一成一个小的网络结构,比如口语化上称为conv+bn+relu。

这是因为基本上卷积后面肯定会有批归一化,而后面肯定会接激活函数 relu。

为了更贴近实际中的叫法,之后的文章,称批归一化统一称为 BN, 称卷积统一称为 conv, 称池化统一称为pooling。

为什么要有 BN 这个东西

归一化我们都好理解,就是计算出一堆数据的平均值和方差,然后通过减掉均值除以方差的办法,或者其他办法,将所有数据归一化到[0,1]的区间。

那为什么神经网络中也要有归一化呢?

这主要是由于在实际训练过程中,一般都采用多批次进行训练,而多个批次的数据分布并不是完全一致的。

比如我有 1 万张图片用于训练,受限于计算资源或者其他方面的限制,每一次训练我不可能把1万张图片全部喂给神经网络。

大部分的做法是,将1万张训练图片分为10份,每次喂给神经网络1000张图片来进行训练,这1000张图片称为mini-batch,也就是一小批训练数据。

那么问题就来了,我们怎么保证分成的这10份图片训练集中的数据具有相同的分布

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

董董灿是个攻城狮

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值