八股文——机器学习基础归一化

本文探讨了归一化在处理特征间量纲不同时的重要性,介绍了最大-最小、零均值和非线性归一化的类型。重点分析了批量归一化在深度网络中的应用,包括其优点(加速收敛、提高速度和缓解梯度消失)以及工作原理。同时指出了批量归一化的局限性,如对batch大小的依赖和训练与测试集数据分布的一致性问题。

为什么要做归一化?

不同特征之间往往量纲不同,变化区间的数量级也不同,这就会导致某些指标可能会被忽略,影响最终结果

为了消除特征之间的量纲影响,需要进行归一化处理,解决特征之间的可比性,使各个特征之间处于同一数量级,可以直接进行对比评价

归一化有哪些类型?

1.最大-最小归一化

适用于数据较为集中

缺点:如果 最大最小值不稳定,归一化后的结果也会不稳定

2.零均值归一化

处理后的数据满足正态分布

3.非线性归一化

适用于数据分化较大的情况,有些数据很大,有些数据很小。用log,指数,正切等函数对数据原始值进行映射

为什么要做批量归一化?

深度网络的训练是一个很复杂的过程,随着训练的进行,前一层参数的调整使得后一层输入数据分布发生改变,各层在训练的过程中就需要不断地改变以适应学习这种新的数据分布。训练中模型参数的更新很容易导致后面层输入分布的变化,只要前面层发生微小的改变,在后面几层就会被积累放大下去,最终导致靠近输出层的输出剧烈抖动。不仅会增加模型训练的复杂性,影响网络的训练速度而且增加了过拟合的风险。

批量归一化的优点

1.增加了损失函数曲面的平滑性,加速模型收敛,可以使用初始化很大的学习率

2.大大提高模型的速度,提高网络泛化性能

3.数据批量归一化后相当于只使用s型激活函数的线性部分,可以缓解s型函数反向传播的梯度消失问题

批量归一化的工作原理

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值