在运行别人已经训练好的模型时报了这个错
TensorFlow: CUDA_ERROR_OUT_OF_MEMORY
通过字面意思也知道是内存不够了,而CUDA指的是GPU。而我使用别人的模型,并不希望使用到GPU。为解决这个问题需要进行如下设置:
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "-1"
当使用他人已训练的TensorFlow模型遇到CUDA_ERROR_OUT_OF_MEMORY错误时,表明GPU内存不足。即使不希望使用GPU,该错误仍会出现。本文介绍如何通过设置环境变量来禁用GPU,从而避免此问题。
在运行别人已经训练好的模型时报了这个错
TensorFlow: CUDA_ERROR_OUT_OF_MEMORY
通过字面意思也知道是内存不够了,而CUDA指的是GPU。而我使用别人的模型,并不希望使用到GPU。为解决这个问题需要进行如下设置:
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "-1"
1613
1万+

被折叠的 条评论
为什么被折叠?