机器学习基本概念:batch_size、epoch、 iteration

本文深入探讨了机器学习中Batch_Size与Epoch的概念及其对训练过程的影响。解释了Batch_Size如何影响训练速度与内存需求,以及Epoch如何定义完整训练周期。同时,文章提及Iterations与Batch_Size的关系,帮助读者理解模型训练的基础参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

batch_size

单次训练用的样本数,通常为2^N,如32、64、128...

相对于正常数据集,如果过小,训练数据就收敛困难;过大,虽然相对处理速度加快,但所需内存容量增加。

使用中需要根据计算机性能和训练次数之间平衡。 

epoch

1 epoch = 完成一次全部训练样本 = 训练集个数 / batch_size

iterations

1 epoch = 完成一次batch_size个数据样本迭代,通常一次前向传播+一次反向传播

转载于:https://www.cnblogs.com/xbit/p/9783327.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值