深度学习【37】Group Normalization

本文介绍了深度学习中的一种归一化方法——Group Normalization(GN),它解决了Batch Normalization在小批量数据时效果不佳的问题。GN沿通道和分组进行均值和方差计算,提高了模型的稳定性。实验结果显示,GN在ImageNet错误率和检测分割任务上表现优于BN。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

神经网络的归一化方法挺多的,如Batch Normalization(BN)、Layer Normalization(LN)以及Instance Normalization(IN)。其中LN主要是在RNN中比较有效,而IN主要是在图像风格化中用的比价多。BN的提出是深度学习上的一个里程碑,现在很多吊炸天的网络都有BN层。但是BN有个问题,那就是当batch size比较小(RCNN系列,以及物体分割中训练批次经常比较少)的时候效果就没那么明显了。为此该论文提出了Group Normalization(GN)。

我们先看看BN、LN、IN和GN的计算区别,看论文给的一张图:
这里写图片描述
其中蓝色的点表示归一化的均值和方差从这些点计算得到。N:样本数,C:通道数,HW:宽高。
那么我们可以计算出每一种归一化的最终输出张量大小(均值和方差张量大小是一样的)。
BN:沿H,W,N计算均值和方差。最终得到的均值和方差张量大小为 [C]
LN:沿H,W,C计算均值和方差。最终得到的均值和方差张量大小为[N]
IN:沿H,W计算均值和方差。最终得到的均值和方差张量大小为[N,C]
GN:沿H,W,C/G计算均值和方差。最终得到的均值方差张量大小为[G,N]。G为分组数。

好了GN的计算方法就是上图所展示的方法,同样的GN也有和BN一样加入了

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值