在人工智能的学习当中训练模型是必不可缺的一个环节,而在GPU上训练模型通常要比在CPU上训练快40~50倍,并且GPU算力资源的成本较高,所以我们要确认高价买来的GPU资源是否被有效的利用。下面我们将介绍几种检测GPU资源是否被利用的方法。
(1)使用命令行工具
nvidia-smi是NVIDIA显卡自带的管理工具,可以查看GPU的显存、温度、功耗、利用率等信息。
首先输入nvidia-smi命令查看未训练模型时的GPU状态。
然后开始训练模型。
训练一段时间后继续输入nvidia-smi命令查看GPU状态,这里可以看到GPU的温度以及功耗相较于未训练模型时有显著提高。
再对比GPU的进程我们发现最下方多出了一个Python进程。
通过以上步骤我们可以得知GPU资源是已被利用的状态,需