问题详情:
WARNING:tensorflow:Your input ran out of data; interrupting training. Make sure that your dataset or generator can generate at least steps_per_epoch * epochs batches (in this case, 13800 batches). You may need to use the repeat() function when building your dataset.
根据报错信息,问题似乎出现在数据集生成器上。可以使用数据集的repeat()函数来确保生成足够的批次供训练使用。
我们可以对训练数据集(train_dataset)应用repeat()函数,以确保生成足够的批次:
train_dataset = train_dataset.repeat()
问题原因:
generator产生的训练数据不够用,少于所要求的steps_per_epoch * epochs 个batch数。
(len(train_data)/batch_size)*epochs=所需要的训练数据的batch数
如果盲目的按照提示repeat()函数来扩充train_data的话,要求的所需的batch数也会相应地增多,会陷入一条死路。。
具体修改如下:
在我的代码中,在定义好的各种函数下,在steps_per_epoch = len(X_train) // BATCH_SIZE之前。


文章讲述了在TensorFlow中遇到训练数据不足的问题,通过在定义数据集时使用`train_dataset.repeat()`函数解决。作者强调了检查`steps_per_epoch`和`batch_size`的重要性,以确保生成足够的训练批次。
最低0.47元/天 解锁文章
3980

被折叠的 条评论
为什么被折叠?



