深度学习中的Batch Normalization

Batch Normalization通过规范化输入数据,解决不同样本梯度大小差异问题,提高深度学习模型训练的收敛速度。它调整输入数据的均值和标准差,确保数据分布相似,从而使得权重更新更均匀,加速模型的训练过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Batch Normalization
假设我们有两组training data:x1=[1,2,3,]x1=[1,2,3,⋯],x2=[100,200,300,],x2=[100,200,300,⋯]
当我们利用这组数据进行机器学习的时候,会发现对于第一笔数据x1x1,它的梯度会比第二笔数据x2x2的梯度要小得多,这时候的训练的收敛过程大致可以由下图表现出来。
这里写图片描述
两个权重跨度范围不一样,如果使用相同的学习率,则在w1w1的学习过程会非常慢,可能w2w2都收敛了,而w1w1还没有完成学习过程。
那如果我们对输入进行调整,使它们的分布大致相同的话,它们的收敛速度就会变得一致,收敛过程大概如下图:
这里写图片描述
这个时候两个权重的收敛速度大致可以趋于一致。
上面介绍的这种将数据分布相似化的过程暂且称为数据的规整化,它的做法其实很简单就

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值