Transformers without Normalization解读

2025年3月13日,由何凯明和Yann LeCun领衔的论文Transformers without Normalization挂载Arxiv上,大佬论文必须读一下。本文就该论文进行一个简单总结。

image-20250317083222588

1.论文解读

这份研究论文挑战了深度神经网络中标准化层(如 Layer Norm)的必要性。作者提出了一种名为 Dynamic Tanh (DyT) 的简单元素操作,可以有效地替代 Transformer 架构中的标准化层,并取得与标准化模型相当甚至更好的性能。

作者通过分析发现,标准化层(如 Layer Norm)的输出与 tanh 函数的 S 形曲线相似,即对输入进行缩放并压缩极端值。论文中的图2说明标准化层并非简单的线性变换,而是会对输入数据进行非线性压缩,特别是对极端值进行压缩。这种非线性压缩效果可能是标准化层对深度神经网络训练至关重要的原因之一。在模型的前几层 LN 层,输入输出关系接近直线,这是因为输入数据的范围较小,经过 LN 层处理后,变化幅度也较小。随着模型层数的增加,输入数据的范围变大,经过 LN 层处理后,极端值被压缩,使得输入输出关系更接近 S 形曲线。

image-20250317081052839

作者提出的操作定义为 :DyT(x)=γ∗tanh(αx)+β\mathrm{DyT}(x)=\gamma*\mathrm{tanh}(\alpha x)+\betaDyT(x)=γtanh(αx)+β

其中 α\alphaα 是一个可学习标量参数,γ\gammaγβ\betaβ是同维度的矢量。DyT\mathrm{DyT}DyT 通过学习合适的缩放因子 α\alpha

### 不使用归一化层的Transformer模型工作原理 Transformer架构的核心在于其自注意力机制和前馈网络的设计。然而,在标准的Transformer结构中,Layer Normalization (LN) 是不可或缺的一部分,它有助于稳定训练过程并加速收敛[^1]。如果移除归一化层,则需要重新设计某些组件来维持模型稳定性。 #### 替代方案及其影响 当不使用任何类型的归一化(如 Layer Norm 或 RMSNorm)时,可以考虑以下几种替代策略: 1. **权重初始化调整**: 更加精细地设置初始权重分布能够帮助缓解梯度消失或爆炸问题。例如采用 Xavier 初始化或者 Kaiming He 初始化方法可能会有所帮助。 2. **残差连接增强**: 增强版的跳跃连接可能被引入以进一步促进信息流动。一种方式是在每个子层之后增加额外的比例因子α(0<α≤1),从而控制输入信号强度相对于转换后的输出比例关系。 3. **激活函数优化**: 使用更平滑且具有良好导数特性的非线性激活单元比如GeLU(Gaussian Error Linear Unit), Swish等代替ReLU作为默认选项也可能改善效果。 4. **正则项加强**: 添加更强力道的dropout或者其他形式随机失活技术可抑制过拟合风险同时保持泛化能力不变甚至有所提升。 以下是基于PyTorch的一个简单例子展示如何构建无规整化的基础版本transformer编码器: ```python import torch.nn as nn class NoNormEncoderLayer(nn.Module): def __init__(self, d_model=512, nhead=8, dim_feedforward=2048, dropout=0.1): super().__init__() self.self_attn = nn.MultiheadAttention(d_model, nhead, dropout=dropout) # Implementation of Feedforward model without any normalization layer. self.linear1 = nn.Linear(d_model, dim_feedforward) self.dropout = nn.Dropout(dropout) self.linear2 = nn.Linear(dim_feedforward, d_model) self.activation = nn.GELU() # Using GELU instead of ReLU def forward(self, src): attn_output, _ = self.self_attn(src, src, src) output = src + attn_output # Simple residual connection ff_output = self.linear2(self.dropout(self.activation(self.linear1(output)))) final_output = output + ff_output # Another simple residual connection return final_output ``` 尽管上述代码片段提供了一个理论上的解决方案,但在实际应用过程中仍然存在诸多挑战。由于缺乏有效的特征尺度约束手段,可能导致数值不稳定现象加剧;另外,缺少显式的均值方差调节步骤也会影响最终表现质量。因此,在大多数情况下还是推荐保留某种形态的规范化操作以便获得更好的实验成果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值