Transformer学习记录(5):Batch Normalization与Layer Normalization

简介

Batch Normalization
Layer Normalization

BatchNorm与Layer Norm都是用于标准化数据的,Batch Normalization是用于图像预处理的,而Layer Normalization最初是用于自然语音的,但随着Transformer在图像的使用,Layer Normalization也用于图像中。

我们在图像预处理过程中通常会对图像进行标准化处理,这样能够加速网络的收敛。

Batch Normalization

原理

数据在网络中传输时,数据的分布就可能不会满足某一种分布,如下图所示,对于Conv1来说输入的就是满足某一分布的特征矩阵,但对于Conv2而言输入的feature map就不一定满足某一分布规律了(这里所说的满足某一分布规律是指整个训练集所对应的feature map要满足某种分布)。
因此需要对输入到Conv2的数据进行标准化。Batch Normalization的目的就是使我们的feature map满足均值为0,方差为1的分布规律
在这里插入图片描述
Batch Normalization是对训练集中的每个维度进行都进行标准化处理
假设输入图像为RGB的三通道图像X,则将X分为 x ( 1 ) , x ( 2 ) , x ( 3 ) x^{(1)},x^{(2)},x^{(3)} x(1),x(2),

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值