RuntimeError: CUDA out of memory. Tried to allocate 192.00 MiB (GPU 0; 10.76 GiB total capacity; 9.36 GiB already allocated; 171.44 MiB free; 9.48 GiB reserved in total by PyTorch)
原因是epoch和batch_size太大机器受不了!
epoch全部调整为1,batch_size全部赋值调整为1。
这篇博客讨论了在运行深度学习模型时遇到CUDA内存不足的问题,解决方案是将epoch数量设置为1,并将batch_size减小到1。这种方法有助于缓解GPU资源紧张的情况。
RuntimeError: CUDA out of memory. Tried to allocate 192.00 MiB (GPU 0; 10.76 GiB total capacity; 9.36 GiB already allocated; 171.44 MiB free; 9.48 GiB reserved in total by PyTorch)
原因是epoch和batch_size太大机器受不了!
epoch全部调整为1,batch_size全部赋值调整为1。

被折叠的 条评论
为什么被折叠?