mini_batch GD

本文详细介绍了在深度学习中使用Mini-Batch梯度下降方法的过程,对比了批量梯度下降(Batch GD)、随机梯度下降(SGD)及在线梯度下降等方法,并解释了如何从整体样本中选取子集进行训练。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

工作过程:训练总样本个数是固定的,batch_size大小也是固定的,但组成一个mini_batch的样本可以从总样本中随机选择。将mini_batch中每个样本都经过前向传播和反向传播,求出每个样本在每一层每个神经元关于w和b的梯度。注意:同一个mini_batch中所有样本经过网络时,网络的参数是相同的(因为每次梯度更新是经过一个mini_batch后才更新的,不是一个样本就更新)。然后对于每一层每个神经元,把mini_batch中所有样本关于这个神经元的w和b梯度求和取平均就是这个神经元最终需要更新的梯度。neural networks and deep learning的43页有这个的公式。

 

batch GD:整个样本做一个mini-batch

SGD:一个样本做一个mini-batch

mini-batch:k个样本做一个mini-batch

online GD

他们是都基于梯度下降。

现在的SGD一般都指mini-batch gradient descent。caffe里面的SGD指的也是mini-batch GD。

转载于:https://www.cnblogs.com/ymjyqsx/p/7260047.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值