在代码里写:
os.environ['CUDA_VISIBLE_DEVICES'] = '2'
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
命令行可以查看使用情况:
nvidia-smi
其中,GPU-Util是GPU利用率
在代码中,通过设置环境变量`CUDA_VISIBLE_DEVICES`选择GPU2,然后使用`torch`库根据CUDA是否可用决定运行设备是GPU还是CPU。通过`nvidia-smi`命令行工具,可以监控GPU的利用率(GPU-Util)。
在代码里写:
os.environ['CUDA_VISIBLE_DEVICES'] = '2'
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
命令行可以查看使用情况:
nvidia-smi
其中,GPU-Util是GPU利用率
您可能感兴趣的与本文相关的镜像
PyTorch 2.5
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理
7164

被折叠的 条评论
为什么被折叠?