从gdrive中读取训练集再去训练深度模型可能会非常的慢。因为colab会一个batch一个batch copy gdrive中的data到自己的一个工作目录下。即
! pwd
>>>/content
解决方法:
1.将所有的数据集的zip文件都先copy到gdrive的content目录下
2.在content中解压zip文件
3.删除zip文件释放空间
zip_path = base/’size_test/cats_dogs.zip’
!cp “{zip_path}” .
!unzip -q cats_dogs.zip
!rm cats_dogs.zip
或者直接将文件夹拷贝
%cp -av 源文件 目标文件夹
本文介绍了一种在Google Colab环境中加速深度学习模型训练的方法,通过预先将数据集复制并解压到Colab的工作目录下,避免了从Google Drive逐批读取数据的效率瓶颈。
-加速训练时间。&spm=1001.2101.3001.5002&articleId=105874047&d=1&t=3&u=aa7d6e6f3d9e44d6812b6d4f6aa45c9c)
329

被折叠的 条评论
为什么被折叠?



