【GN】《Group Normalization》

在这里插入图片描述
ECCV-2018
Facebook AI Research
更多论文解读,可参考【Paper Reading】


1 Background and Motivation

在这里插入图片描述

Batch normalization(BN) 在 batch size 很小的时候,效果下降的比较多,而目标检测或者分割等任务由于输入分辨率比较高,网络偏大时 batch-size 往往比较小,BN 发挥的作用减弱了

作者基于 many classical features like SIFT and HOG are group-wise features and involve group-wise normalization

提出了 Group Normalization,以此来减小小 batch-size 对 normalization 带来的影响

2 Related Work

在这里插入图片描述

  • Normalization
    LRN / BN / LN / IN / WN(weight normalization)
    LN 和 IN 属于 GN 的两个极端, effective for training sequential models (RNN/LSTM) or generative models(GAN),but have limited success in visual recognition
  • Addressing small batches
    Batch Renormalization(batch size 过小也不行)
  • Group-wise computation
    AlexNet / ResNeXt / MobileNet / Xception / ShuffleNet

3 Advantages / Contributions

提出 Group Normalization

4 Method

its computation is independent of batch sizes.
在这里插入图片描述

LN, IN, and GN all perform independent computations along the batch axis

GN 的两个极端就是 LN 和 IN

看看公式表达,减均值,除以标准差
在这里插入图片描述
打一巴掌来个糖,学两个参数弥补回来
在这里插入图片描述
i = ( i N , i C , i H , i W ) i = (i_N, i_C,i_H,i_W) i=(i

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值