解决显存不足的方式
自己也是刚接触深度学习,由于毕业压力大和条件比较高,在学习方面表现得比较急躁。所以很多事情都没有做好。自己也知道欲速则不达的道理,但很多时候都没有听进去。因此写写文章,记录一下自己的学习过程。
之前利用深度学习,进行实验时,发现数据集过大,总是会超出显存容量。自己也看了很多优快云上面的文章,也实验过,但很多都会有各种各样的错误,实在是难以接受。因此,在别人的代码里面学习到了一段很好的代码来生成数据,能够很好的解决显存不足的问题。
class DataGenerator(tf.keras.utils.Sequence): #可以看到定义了一个类别,继承于Sequence
def __init__(self, mains,batch_size, shuffle=False):
#该部分定义了,初始数据,主要是整个训练集,batch_size、shuffle等参数。
self.mains = mains
self.batch_size = batch_size
self.indices

在深度学习实践中,遇到显存不足的问题。通过阅读优快云上的文章并尝试,找到了一种有效的方法来生成数据,从而缓解显存压力。这段代码帮助解决了大数据集训练时的显存限制问题。
最低0.47元/天 解锁文章
1623

被折叠的 条评论
为什么被折叠?



