Epoch、Batch、Batch size

知识来源知乎专栏作者风度、
作者眼睛里面进砖头了https://www.zhihu.com/question/456600260
epoch:
一个完整的数据集通过了神经网络一次并返回一次,称为一个epoch。所有的训练样本在神经网络中都进行了一次正向传播和反向传播,就是一个epoch将所有的训练集训练一次的过程。
Batch:
当一个epoch的样本数量太庞大,需要把它分成多个小块,也就是分成多个batch来进行训练。batch(批/一批样本),将整个训练样本分成若干个batch。
batch_size:
每批样本的大小
iteration:
一次迭代,训练一个Batch就是一次iteration

神经网络中传递完整的数据集一次是不够的,而且我们需要将完整的数据集在同样的神经网络中传递多次。使用有限的数据集,使用一个迭代过程即梯度下降优化学习过程。随着epoch数量增加,神经网络中的权重的更新次数也在增加,但是具体多少个epoch case by case
Batch_size:它的大小影响模型的优化程度和速度,直接影响到GPU内存的使用情况,GPU内存不大,数值最好设置小一点。
Batch_size增大,梯度变得准确,当非常准确的时候,在增加batch_size也没用了。

batch_size增大要到达相同的准确度,必须增大epoch:
batch size的大小影响的是训

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值