Python编程:节省内存的办法(持续更新ing...)

本文介绍了Python编程中避免内存溢出的方法,特别关注了如何在GPU环境下,通过`gc.collect()`、`torch.no_grad()`、`requires_grad=False`和`torch.cuda.empty_cache()`来节省内存,以及使用PyTorch的内存管理实践。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

诸神缄默不语-个人优快云博文目录

最近更新时间:2022.4.27
最早更新时间:2022.4.27

本文将介绍Python编程时节省内存的方法。
其实我一般使用CPU运行代码时不太有内存问题,主要是在用GPU时会遇到OOM问题,需要节省内存。因此本文接下来的内容会涉及CPU、GPU通用的方法,和使用GPU(主要是使用PyTorch框架)时的解决方案。

  1. 调用gc:
import gc
del obj
gc.collect()
  1. 使用PyTorch时,如果不需要积累任何梯度,可以使用with torch.no_grad()(在循环语句里面正常运算即可),可以有效降低梯度占据的内存(梯度可以占相当大的一部分)。
    如果仅不需要积累特定张量的梯度,可以将对应张量的requires_grad属性置False。(这是没有注册的张量的默认属性)
    (注意,仅使用model.eval()不能达到这个效果)
  2. 使用PyTorch清cuda上的缓存:torch.cuda.empty_cache()(官方文档:torch.cuda.empty_cache — PyTorch 1.11.0 documentation,此外可参考【pytorch】torch.cuda.empty_cache()==>释放缓存分配器当前持有的且未占用的缓存显存_马鹏森的博客-优快云博客_empty_cache
  3. 其他使用Python对cuda进行内存管理可以参考官方笔记 CUDA semantics - Memory management
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

诸神缄默不语

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值