大模型面试-Layer normalization篇

1. Layer Norm 的计算公式写一下?

2. RMS Norm 的计算公式写一下?

3. RMS Norm 相比于 Layer Norm 有什么特点?

4. Deep Norm 思路?

5. 写一下 Deep Norm 代码实现?

6.Deep Norm 有什么优点?

7.LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?

8. LLMs 各模型分别用了 哪种 Layer normalization?

 

一、 Layer Norm
1.1 Layer Norm 的计算公式写一下?
二、
### 大模型中的归一化常见面试问题及答案 #### 层归一化(Layer Normalization)的作用是什么? 层归一化是一种用于稳定和加速神经网络训练的技术。其主要作用是在每一层的激活函数之前对数据进行标准化处理,从而减少内部协变量偏移现象。这有助于提高梯度传播效率并加快收敛速度[^1]。 ```python import torch.nn as nn class Model(nn.Module): def __init__(self, input_size, hidden_size, output_size): super(Model, self).__init__() self.fc1 = nn.Linear(input_size, hidden_size) self.ln = nn.LayerNorm(hidden_size) # Layer normalization layer def forward(self, x): out = self.fc1(x) out = self.ln(out) # Apply layer normalization before activation function return out ``` #### 批量归一化(Batch Normalization)与层归一化有何不同? 批量归一化是对整个批次的数据进行统计计算均值和方差来进行规范化操作;而层归一则只关注单一样本,在该样本特征维度上做同样的事情。因此BN依赖于batch size大小以及mini-batch内样本分布情况,LN则不受此影响更适用于RNN/LSTM等序列建模任务中[^2]。 #### 在大规模预训练语言模型里为什么倾向于采用层归一化而不是批量归一化? 由于大模型通常具有非常深的架构并且可能涉及长程依赖关系捕捉的任务特性,所以更加推荐使用层归一化来替代传统的批处理方式。因为前者能够更好地保持每一步骤间的一致性和稳定性,这对于防止梯度消失/爆炸至关重要。此外,随着Transformer类结构成为主流,自注意力机制使得各位置之间相互关联紧密,此时再利用基于batch统计数据的方法反而可能导致性能下降甚至不稳定的结果出现[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值