最近更新时间:2022.4.27
最早更新时间:2022.4.27
本文将介绍Python编程时节省内存的方法。
其实我一般使用CPU运行代码时不太有内存问题,主要是在用GPU时会遇到OOM问题,需要节省内存。因此本文接下来的内容会涉及CPU、GPU通用的方法,和使用GPU(主要是使用PyTorch框架)时的解决方案。
- 调用gc:
import gc
del obj
gc.collect()
- 使用PyTorch时,如果不需要积累任何梯度,可以使用
with torch.no_grad()(在循环语句里面正常运算即可),可以有效降低梯度占据的内存(梯度可以占相当大的一部分)。
如果仅不需要积累特定张量的梯度,可以将对应张量的requires_grad属性置False。(这是没有注册的张量的默认属性)
(注意,仅使用model.eval()不能达到这个效果) - 使用PyTorch清cuda上的缓存:
torch.cuda.empty_cache()(官方文档:torch.cuda.empty_cache — PyTorch 1.11.0 documentation,此外可参考【pytorch】torch.cuda.empty_cache()==>释放缓存分配器当前持有的且未占用的缓存显存_马鹏森的博客-优快云博客_empty_cache) - 其他使用Python对cuda进行内存管理可以参考官方笔记 CUDA semantics - Memory management
本文介绍了Python编程中避免内存溢出的方法,特别关注了如何在GPU环境下,通过`gc.collect()`、`torch.no_grad()`、`requires_grad=False`和`torch.cuda.empty_cache()`来节省内存,以及使用PyTorch的内存管理实践。
1365

被折叠的 条评论
为什么被折叠?



