GPU显存未释放问题

控制台终止掉正在运行的程序,但是有时候程序已经结束了,nvidia-smi也看到没有程序了,但是GPU的内存并没有释放,这是怎么回事呢?

使用PyTorch设置多线程(threads)进行数据读取(DataLoader),其实是的多线程,他是开了N个子进程(PID都连着)进行模拟多线程工作,所以你的程序跑完或者中途kill掉主进程的话,子进程的GPU显存并不会被释放,需要手动一个一个kill才行,具体方法描述如下:

  1. 查看GPU上运行的所有程序
fuser -v /dev/nvidia*

在这里插入图片描述

  1. 查看具体这个进程调用GPU的情况
pmap -d PID号  #例如:pmap -d 1960
  1. kill掉僵尸进程
kill -9 PID号 #例如 kill -9 1960

或者知道进程名可以杀死所有进程

killall -9 进程名
### 解决 GPU 显存占用为 0 的问题 当遇到 GPU 显存被占用而利用率却为 0 的情况时,这通常意味着某些进程正在持有显存资源但并未实际执行计算任务。以下是几种可能的解决方案: #### 方法一:查找并终止异常进程 有时即使 `nvidia-smi` 不显示任何进程,仍可能存在隐藏的进程占用着 GPU 资源。 可以通过如下命令找出这些潜在的进程: ```bash fuser -v /dev/nvidia* ``` 一旦确认了具体的 PID (进程 ID),就可以通过发送信号强制结束它们: ```bash sudo kill -9 <pid> ``` 此操作需谨慎对待,因为误杀重要服务可能导致系统不稳定[^2]。 #### 方法二:调整框架配置参数 对于像 PyTorch 和 TensorFlow 这样的深度学习库,默认情况下可能会预先分配大量显存。为了优化这种情况,可以在启动应用程序之前修改环境变量或直接在代码里设定更合理的内存增长策略。 针对 TensorFlow 用户来说,在初始化阶段加入下面几行代码有助于缓解该问题: ```python import tensorflow as tf gpus = tf.config.experimental.list_physical_devices('GPU') if gpus: try: for gpu in gpus: tf.config.experimental.set_memory_growth(gpu, True) except RuntimeError as e: print(e) ``` 上述做法允许 Tensorflow 动态申请所需数量的显存而不是一次性全部占据[^4]。 #### 方法三:重启 NVIDIA 驱动程序 如果以上措施均未能奏效,则可能是驱动层面出现了故障。此时不妨尝试重新加载内核模块来恢复正常的硬件访问权限: ```bash sudo rmmod nvidia_uvm && sudo modprobe nvidia_uvm ``` 这条指令会先卸载再重装 UVM(统一虚拟内存)子系统,从而清除残留状态并恢复正常工作模式[^1]。 #### 方法四:排查应用逻辑错误 最后还需仔细审查自己的项目代码是否存在不当之处,比如忘记释放不再使用的张量对象或是循环外创建过多临时变量等都会造成不必要的显存浪费。确保所有资源都能及时回收是提高效率的关键所在[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值