Zero volatile GPU-Util but high GPU Memory Usage,tensorflow训练时候显存占满,但是执行效率很低,GPU使用率很低。

本文探讨了TensorFlow在使用GPU进行训练时遇到的问题:显存占用高但GPU利用率低的现象。通过调整代码中处理大量数据的部分,成功提高了GPU的利用率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Tensorflow 调用GPU训练的时候经常遇见 ,显存占据的很大,但是使用率很低,也就是Zero volatile GPU-Util but high GPU Memory Usage。

网上找到这样一个答案,意思就是自己run 的很多东西是没有用的,但是会占据大量显存。

后来找到问题了,

这两个语句,是针对所有的data_x data_y 操作的,而这两个部分又比较大(大概几百兆)所以处理起来才比较慢。之后GPU 利用率大概到了60% 左右。大量的CPU 操作,占据了大量的时间。

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值