深度学习中的Epoch,Batchsize,Iterations理解

本文详细介绍了深度学习中三个关键概念:Epoch、Batch Size和Iterations。Epoch是指完整遍历一次训练集;Batch Size定义了每次更新模型参数时所用样本数量;Iterations则是训练过程中完成的一个Batch的次数。理解这些概念对于优化模型训练过程至关重要。特别是Batch Size,它影响着梯度下降的效率和模型的收敛速度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

深度学习中的Epoch,Batchsize,Iterations,都是什么鬼?
batch_size与梯度下降
【深度学习】batch_size的作用

Epoch,Batchsize,Iterations概念

- Epoch: 所有训练样本都已经输入到模型中,称为一个 Epoch
- Iteration: 一批样本输入到模型中,称为一个 Iteration
- Batchsize: 批大小,决定一个 iteration 有多少样本,也决定了一个 Epoch 有多少个 Iteration

梯度下降计算过程

带Mini-batch的SGD

(1)选择n个训练样本(n<m,m为总训练集样本数)

(2)在这n个样本中进行n次迭代,每次使用1个样本

(3)对n次迭代得出的n个gradient进行加权平均再并求和,作为这一次mini-batch下降梯度

(4)不断在训练集中重复以上步骤,直到收敛。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值