【批量归一化】

批量归一化是解决深度神经网络中梯度消失和训练速度问题的有效方法,通过固定小批量数据的均值和方差,增加数值稳定性。它加速了模型收敛,通常应用于全连接层和卷积层的激活函数前,有助于减少内部协变量转移并控制模型复杂度。批量归一化层包含可学习的参数γ和β,用于调整数据分布,但不应与丢弃法同时使用。

  几乎所有的主流神经网络都会使用批量归一化,虽然这个思想早已出现,但是这个层的出现没多久。同事想要做很深的神经网络时,这更是一个不可避免的层。

现存问题

  • 正向计算时是从底部向后传播,但计算梯度时是反向传播,越往底层越有可能造成梯度消失。
  • 损失出现在最后,后面的层训练较快
  • 数据在最底部
    • 底部的层训练较慢
    • 底部层一变化,所有都得跟着变
    • 最后的那些层需要重新学习多次
    • 导致收敛变慢
  • 我们可以在学习底部层的时候避免变
    化顶部层吗?
    在这里插入图片描述

核心思想

  之所以后面的参数会随着前面的参数不停变得原因是方差和均值在不同的层之间在不停地变化,我们可以通过固定住分布来增加数值的稳定性

  • 固定小批量里面的均值和方差
    μB=1∣B∣∑i∈Bxi\mu_B=\frac{1}{|B|}\sum\limits_{i\in B}x_iμB=B1iBxiσB2=∑i∈B(xi−μB)2+ϵ\sigma_B^2=\sum\limits_{i\in B}(x_i-\mu_B)^2+\epsilonσB2=iB(xiμB)2+ϵ
    然后再作额外的调整(可学习的参数)
    xi+1=γxi−μBσB+βx_{i+1}=\gamma\frac{x_i-\mu_B}{\sigma_B}+\betaxi+1=γσBxiμB+β
  • 其中γ\gammaγ为方差,β\betaβ是均值,都是可学习的参数。作用是假设分布在某一均值和方差下不合适,就可以通过学习一个新的均值和方法,使得神经网络输出的分布更好,但也不能变化的太剧烈,因此往往限制这两个参数的范围。

批量归一化层

  • 可学习的参数为γ\gammaγBBB
  • 作用在
    • 全连接层和卷积层输出上,激活函数前
    • 全连接层和卷积层输入上
  • 对全连接层,作用在特征维
  • 对于卷积层,作用在通道维

批量归一化在做什么

  • 最初论文是想用它来减少内部协变量转移
  • 后续有论文指出它可能就是通过在每个小批量里加入噪音来控制模型复度(每个批量的数据都要减去均值,除以方差,相对于整体数据而言,它是极其不稳定的,因此可以看作噪音)
  • 因此没必要跟丢弃法混合使用

总结

  • 批量归一化固定小批量中的均值和方差,然
    后学习出适合的偏移和缩放
  • 可以加速收敛速度,但一般不改变模型精度
### 批量归一化深度学习中的作用及实现方法 批量归一化(Batch Normalization,BN)是一种用于加速深度神经网络训练的技术,同时还能提高模型的稳定性和性能。它通过规范化每一层的输入,减少内部协变量偏移问题,从而使得网络更容易训练。 #### 1. 批量归一化的概念 批量归一化的核心思想是对每一批数据进行规范化处理,使每一层的输入分布更加稳定[^1]。具体来说,批量归一化通过调整和缩放每一层的激活值,使得这些值的均值接近于零,方差接近于一。这种规范化有助于缓解梯度消失和梯度爆炸的问题,同时允许使用更高的学习率进行训练。 #### 2. 批量归一化的作用 批量归一化的主要作用包括: - **加速训练**:通过减少内部协变量偏移,使得网络能够更快地收敛[^1]。 - **提高模型稳定性**:规范化后的输入分布更加稳定,减少了对初始化参数的敏感性[^3]。 - **正则化效果**:在训练过程中,每个小批次的数据被用来估计均值和方差,这引入了一定程度的噪声,起到了类似 Dropout 的正则化效果[^4]。 #### 3. 批量归一化的实现方法 批量归一化的实现通常分为两部分:训练阶段和预测阶段。 ##### 训练阶段 在训练阶段,批量归一化根据当前小批次数据计算均值和方差,并用它们对输入进行标准化。标准化后的结果会通过两个可学习参数 γ 和 β 进行缩放和平移,以恢复网络的表达能力。公式如下: \[ \mu_B = \frac{1}{m} \sum_{i=1}^m x_i, \quad \sigma_B^2 = \frac{1}{m} \sum_{i=1}^m (x_i - \mu_B)^2 \] \[ \hat{x}_i = \frac{x_i - \mu_B}{\sqrt{\sigma_B^2 + \epsilon}}, \quad y_i = \gamma \hat{x}_i + \beta \] 其中,\( \mu_B \) 和 \( \sigma_B^2 \) 分别表示当前批次的均值和方差,\( \epsilon \) 是一个很小的数值,用于防止除以零。 ##### 预测阶段 在预测阶段,由于无法获得批次信息,批量归一化使用训练过程中累积的移动平均均值和方差来替代当前批次的均值和方差。这样可以确保预测阶段的输出更加稳定。 #### 4. 批量归一化的代码实现 以下是一个基于 PyTorch 的批量归一化实现示例: ```python import torch from torch import nn class BatchNorm(nn.Module): def __init__(self, num_features, eps=1e-5, momentum=0.1): super(BatchNorm, self).__init__() self.eps = eps self.momentum = momentum self.gamma = nn.Parameter(torch.ones(num_features)) self.beta = nn.Parameter(torch.zeros(num_features)) self.register_buffer('moving_mean', torch.zeros(num_features)) self.register_buffer('moving_var', torch.ones(num_features)) def forward(self, X): if self.training: if len(X.shape) == 2: # 全连接层 mean = X.mean(dim=0) var = ((X - mean) ** 2).mean(dim=0) elif len(X.shape) == 4: # 卷积层 mean = X.mean(dim=(0, 2, 3), keepdim=True) var = ((X - mean) ** 2).mean(dim=(0, 2, 3), keepdim=True) else: raise ValueError("Unsupported input shape") X_hat = (X - mean) / torch.sqrt(var + self.eps) self.moving_mean = self.moving_mean * self.momentum + mean * (1 - self.momentum) self.moving_var = self.moving_var * self.momentum + var * (1 - self.momentum) else: X_hat = (X - self.moving_mean) / torch.sqrt(self.moving_var + self.eps) Y = self.gamma * X_hat + self.beta return Y ``` #### 5. 批量归一化的应用 批量归一化广泛应用于各种深度学习模型中,例如卷积神经网络(CNN)、循环神经网络(RNN)以及 Vision Transformer(ViT)。在 CNN 中,批量归一化通常与卷积、激活和池化操作结合使用,以提升模型的鲁棒性和表现[^3]。在 ViT 中,批量归一化常用于自注意力机制之后,以稳定训练过程[^2]。 --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

菜鸟炼丹师

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值