import torch
if torch.cuda.is_available():
print("运行在GPU上")
else:
print("运行在CPU上")
进入容器后
如果进入容器后,是没法通过nvidia-smi命令查看显卡型号的,但是环境仍然是GPU在运行。
nvidia-smi

没进入的时候

文章讲述了如何使用PyTorch库检测设备是否为GPU,以及在容器环境下虽然无法直接查看显卡型号,但确认GPU仍在运行。着重于在特定场景下的硬件识别和管理。
import torch
if torch.cuda.is_available():
print("运行在GPU上")
else:
print("运行在CPU上")
如果进入容器后,是没法通过nvidia-smi命令查看显卡型号的,但是环境仍然是GPU在运行。
nvidia-smi


您可能感兴趣的与本文相关的镜像
Python3.11
Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本
3万+
299
7330
2580
4342
3663

被折叠的 条评论
为什么被折叠?