大家在训练数据的时候,经常会遇到tensorflow会占用发现的所有GPU的情况,这样会影响其他人使用GPU,因此我们可以在使用时设定选用的GPU。
import os
os.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID" # see issue #152
os.environ["CUDA_VISIBLE_DEVICES"]="0"
这样我们就可以避免tensorflow占用所有GPU的情况。
本文介绍如何在使用TensorFlow时仅指定使用特定的GPU设备,而不是默认占用所有可用的GPU资源,这对于多用户共享GPU资源的场景尤其有用。
大家在训练数据的时候,经常会遇到tensorflow会占用发现的所有GPU的情况,这样会影响其他人使用GPU,因此我们可以在使用时设定选用的GPU。
import os
os.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID" # see issue #152
os.environ["CUDA_VISIBLE_DEVICES"]="0"
这样我们就可以避免tensorflow占用所有GPU的情况。
您可能感兴趣的与本文相关的镜像
TensorFlow-v2.15
TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型
3427
3098
6663