【机器学习】层归一化(Layer Normalization)

Layer Normalization(层归一化)是一种用于深度学习神经网络的归一化方法,它通过对神经元的输入进行归一化,使每一层的输入保持稳定,从而减缓梯度消失或梯度爆炸问题。与批量归一化(Batch Normalization)不同,LayerNorm 不依赖于 mini-batch,而是对每一个样本的每一层神经元进行归一化,这使其在序列建模、深层网络和小批量训练中表现出色。

1. Layer Normalization(层归一化)

(1) Layer Normalization 的定义

Layer Normalization 的目标是在神经网络的每一层中,对该层所有神经元的激活值进行归一化。具体来说,LayerNorm 将每一层的激活值转换为均值为 0、标准差为 1 的分布,然后对结果进行缩放和偏移。

给定神经网络中某一层的输入向量 z=(z1,z2,…,zH)\mathbf{z} = (z_1, z_2, \dots, z_H)z=(z1,z2,,zH),其中 HHH 是该层的神经元个数,LayerNorm 的计算公式如下:

z^i=zi−μσ \hat{z}_i = \frac{z_i - \mu}{\sigma} z^i=σziμ

其中:

  • μ\muμ 是该层所有神经元激活值的均值:μ=1H∑i=1Hzi\mu = \frac{1}{H} \sum_{i=1}^{H} z_iμ=H1i=1Hzi
  • σ\sigmaσ 是该层所有神经元激活值的标准差:σ=1H∑i=1H(zi−μ)2+ϵ\sigma = \sqrt{\frac{1}{H} \sum_{i=1}^{H} (z_i - \mu)^2 + \epsilon}σ=H1i=1H(ziμ)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值