问题描述:
之前跑一样的模型,能运行成功,不会出现cuda内存不足的情况。再次跑代码的时候,出现cuda内存不够的问题
解决方案:
1. 清空 GPU 缓存
PyTorch 允许你手动清空 GPU 缓存。你可以在每次迭代后清理显存
import torch
torch.cuda.empty_cache()
这个方法不会释放所有显存,但它会让 PyTorch 回收一些未使用的内存,有时能够缓解 out of memory
的错误。
问题描述:
之前跑一样的模型,能运行成功,不会出现cuda内存不足的情况。再次跑代码的时候,出现cuda内存不够的问题
解决方案:
PyTorch 允许你手动清空 GPU 缓存。你可以在每次迭代后清理显存
import torch
torch.cuda.empty_cache()
这个方法不会释放所有显存,但它会让 PyTorch 回收一些未使用的内存,有时能够缓解 out of memory
的错误。