pytorch经常出现显存不足的情况,所以我们希望能够随时查看GPU时使用率。如果你是Nvidia的GPU
显示当前GPU使用情况,Nvidia自带了一个nvidia-smi的命令行工具,会显示显存使用情况:
$ nvidia-smi
查看所有相关进程
fuser -v /dev/nvidia*
删除sudo kill -9 pid号码
我们设置为每 10s 显示一次显存的情况:
$ watch -n 10 nvidia-smi
本文介绍如何使用Nvidia的工具nvidia-smi监控GPU显存使用情况,以及如何通过命令行工具fuser和kill管理相关进程,避免PyTorch运行中出现显存不足的问题。
pytorch经常出现显存不足的情况,所以我们希望能够随时查看GPU时使用率。如果你是Nvidia的GPU
显示当前GPU使用情况,Nvidia自带了一个nvidia-smi的命令行工具,会显示显存使用情况:
$ nvidia-smi
查看所有相关进程
fuser -v /dev/nvidia*
删除sudo kill -9 pid号码
我们设置为每 10s 显示一次显存的情况:
$ watch -n 10 nvidia-smi
您可能感兴趣的与本文相关的镜像
PyTorch 2.5
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理
1万+
2198

被折叠的 条评论
为什么被折叠?