Tensorflow 调用GPU训练的时候经常遇见 ,显存占据的很大,但是使用率很低,也就是Zero volatile GPU-Util but high GPU Memory Usage。
网上找到这样一个答案,意思就是自己run 的很多东西是没有用的,但是会占据大量显存。
后来找到问题了,
这两个语句,是针对所有的data_x data_y 操作的,而这两个部分又比较大(大概几百兆)所以处理起来才比较慢。之后GPU 利用率大概到了60% 左右。大量的CPU 操作,占据了大量的时间。