前言:
在我们平时使用tensorflow训练模型时,有时候可能因为数据集太大(比如VOC数据集等等)导致GPU内存不够导致终止,可以自制一个数据生成器来解决此问题。
代码如下:
def train_generator(train_path,train_labels,batch):
over=len(train_path)%batch
while True:
for i in range(0,len(train_path)-over,batch)
本文介绍如何使用TensorFlow自制数据生成器解决大型数据集训练时的GPU内存溢出问题。通过循环读取图片路径而非直接加载整个数据集,有效降低内存消耗。
前言:
在我们平时使用tensorflow训练模型时,有时候可能因为数据集太大(比如VOC数据集等等)导致GPU内存不够导致终止,可以自制一个数据生成器来解决此问题。
代码如下:
def train_generator(train_path,train_labels,batch):
over=len(train_path)%batch
while True:
for i in range(0,len(train_path)-over,batch)
1793
6431
1043
2521

被折叠的 条评论
为什么被折叠?