windows如何查看nvidia显卡(GPU)的利用率和温度

本文介绍了一种在Windows系统中查看GPU利用率、温度和显存占用的方法。通过使用nvidia-smi.exe工具,可以轻松获取GPU的状态信息,包括正在运行的GPU进程详情。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在用GPU跑并行运算的时候,我们经常会需要查看GPU的利用率,温度和显存占用率。但对于windows系统而言,在任务管理器内只能看到CPU的利用率和内存占有率等信息,根本没有GPU的相关信息。

现在,只要在文件夹C:\Program Files\NVIDIA Corporation\NVSMI里找到文件nvidia-smi.exe,把该文件拖到命令提示符窗口(win+R,再输入‘CMD’进入),就可以显示关于GPU的信息,如下图所示:


从图里可以看到GPU的名称,温度,显存利用情况和GPU利用率,还有正在工作的GPU进程。这些信息已经足够我们对GPU的状态进行监控了。

### nvidia-smi 显示 GPU 利用率为 0 的原因及解决方案 当 `nvidia-smi` 命令显示 GPU 利用率为 0 或者无法正常通信时,这可能是由种因素引起的。以下是可能的原因及其对应的解决方案: #### 可能原因一:NVIDIA 驱动未正确安装或运行 如果遇到错误提示:“NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and run.” 这表明当前系统中的 NVIDIA 驱动程序未能成功启动或者版本过低[^1]。 **解决方案** - 更新至最新的官方稳定版 NVIDIA 驱动; - 卸载现有驱动并重新安装新版本; - 检查 BIOS 设置确保启用了集成/独立显卡选项; - 对于云服务提供商提供的虚拟机实例,考虑选用带有预装 GRID 驱动的镜像来简化配置过程[^3]; #### 可能原因二:持久化模式设置不当影响统计准确性 某些情况下,默认开启的持久化模式可能会干扰到实际性能监控数据采集工作,在 K80 Tesla M40 上尤为明显[^4]。 **解决方案** 可以通过执行以下命令关闭持久化线程: ```bash sudo nvidia-persistenced --exit-on-detach ``` #### 可能原因三:应用程序本身并未充分利用GPU资源 即使硬件层面一切正常,但如果正在运行的应用并没有有效利用起 GPU 资源,则自然会看到较低甚至为零的占用情况。 **确认方法** 可以尝试通过编写简单的 CUDA 测试代码验证是否能够触发更高的负载水平: ```cpp #include <cuda_runtime.h> int main(){ float *d_A; cudaMalloc(&d_A, sizeof(float)*1e7); cudaMemcpy(d_A, NULL, sizeof(float)*1e7,cudaMemcpyHostToDevice ); cudaFree(d_A); } ``` 编译并运行上述 C++ 程序后再次观察 `nvidia-smi` 输出的变化趋势。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值