Linux监听空闲GPU,定时运行多卡并行python程序

本文介绍了如何在Linux服务器上使用脚本来监控GPU状态,当检测到空闲GPU时自动运行多卡Python程序。通过gpustat工具获取GPU占用情况,使用shell脚本判断空闲GPU并启动训练脚本train_run.sh。此外,还配置了定时脚本time_run.sh,在特定时间点执行GPU监控任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.介绍

本脚本功能主要用于在linux服务器中检查空闲GPU,定时运行python程序。

2.脚本

2.1环境配置

下载安装gpustat

pip install gpustat

2.2运行程序脚本

train_run.sh这是我们需要运行的多卡程序脚本,其中$1,$2 对应显卡编号

# #!/bin/bash
export PYTHONPATH=$PYTHONPATH:$(pwd)
CUDA_VISIBLE_DEVICES=$1,$2  torchrun --nproc_per_node=2 --master_port=29509 URF/run_test.py --dataroot=./dataset/train/URF --n_ep=1000 --n_ep_decay=800 --resume=./checkpoint/initial_weights_128.pth --stage=RF --batch_size=2 --name=ttt

2.3监听空闲GPU脚本

gpu_monitor.sh是监听脚本

while true
do
  # shellcheck disable=SC1060
  # stat1-stat8 对应显卡数量
  # $09表示gpustat查询到的显卡占用显存
  # '2p-9p' 表示显卡号 '2p' 对应第一张显卡,依此类推
  stat1=$(gpustat | awk '{print $09}' | sed -n '2p')
  stat2=$(gpustat | awk '{print $09}' | sed -n '3p')
  stat3=$(gpustat | awk '{print $09}' | sed -n '4p')
  stat4=$(gpustat | awk '{print $09}' | sed -n '5p')
  stat5=$(gpustat | awk '{print $09}' | sed -n '6p')
  stat6=$(gpustat | awk '{print $09}' | sed -n '7p')
  stat7=$(gpustat | awk '{print $09}' | sed -n '8p')
  stat8=$(gpustat | awk '{print $09}' | sed -n '9p')
  stat_arr=($stat1 $stat2 $stat3 $stat4 $stat5 $stat6 $stat7 $stat8)
  gpu_available=0
  gpu_available_index_arr=()
  # 得到空闲GPU的数量和对应的序号
  for i in ${!stat_arr[@]}
  do
     # 如果显存占用小于阈值(单位M),继续
    if [ "${stat_arr[$i]}" -lt 10000 ]
    then
      gpu_available=$[gpu_available+1]
      gpu_available_index_arr[${#gpu_available_index_arr[@]}]=$i
    fi
  done
  echo '-可用GPU数:'$gpu_available', 第'${gpu_available_index_arr[@]}'块GPU可用'
  # 如果GPU数大于指定数量,取指定数量GPU开始训练
  if [ $gpu_available -ge 2 ]
  then
    echo 'start running the code...'
    # 传值操作,即需要运行的代码脚本
    sh ./train_run.sh ${gpu_available_index_arr[0]} ${gpu_available_index_arr[1]}
    break # 防止下一次循环又重复运行上一行命令
  fi
  sleep 30 # 单位秒
done

运行命令bash gpu_monitor.sh

2.4定时启动脚本

time_run.sh是定时启动脚本

#!/bin/bash
# 2022年9月25日1点0分0秒 阈值时间
date="20220925-010000"

while true
do
 now="$(date "+%Y%m%d-%H%M%S")"
 echo '当前时间:' $now
 if [[ $date > $now ]]; then
    echo "$date > $now"
 elif [[ $date -eq $now ]]; then
    echo "$date == $now"
 else
    echo "$date < $now"
    # 执行GPU监控脚本
    bash gpu_monitor.sh
    break
 fi
 sleep 30
done

参考资料

  1. 【Linux shell命令】实验室监控空闲GPU,及时运行python代码程序
  2. shell中 -eq,-ne,-gt,-lt,-ge,-le数字比较符
### PythonGPU切换至GPU运行的解决方案 当从单GPU切换到GPU运行时,通常会涉及模型并行化以及数据分布策略的设计。以下是针对此问题的具体方法: #### 使用PyTorch实现GPU支持 在PyTorch中,可以通过`torch.nn.DataParallel`模块来快速启用GPU的支持[^2]。该模块允许将神经网络模型复制到个设备上,并自动分配输入数据以利用这些设备。 ```python import torch import torch.nn as nn from torchvision import models class SimpleModel(nn.Module): def __init__(self): super(SimpleModel, self).__init__() self.resnet = models.resnet18(pretrained=True) def forward(self, x): return self.resnet(x) model = SimpleModel() if torch.cuda.device_count() > 1: model = nn.DataParallel(model) # 启用GPU模式 model.to('cuda') ``` 上述代码片段展示了如何通过`nn.DataParallel`将模型扩展到GPU运行。需要注意的是,在实际应用过程中可能还需要调整批量大小(batch size),因为更大的batch可以更好地利用额外的计算资源。 #### 自定义CUDA编译选项设置 对于某些特定库(如dlib),如果希望其能够充分利用GPU性能,则需要重新构建源码并指定相应的标志位[^3]。例如下面命令设置了DLIB使用CUDA以及其他优化参数: ```bash python setup.py install --set DLIB_USE_CUDA=1 \ --set USE_AVX_INSTRUCTIONS=1 \ --set CUDA_NVCC_FLAGS="--expt-relaxed-constexpr" ``` 这一步骤确保了第三方依赖项也能正确识别和调用可用的图形处理器硬件加速功能。 #### 注意事项 尽管现代框架提供了便捷的方法来进行跨GPU的工作负载分摊,但在实践中仍需注意以下几点: - **同步机制**:不同之间可能存在通信延迟,因此要合理设计梯度更新频率; - **内存管理**:每张显卡都需要加载完整的模型副本及其对应的中间状态变量,所以整体消耗可能会显著增加; - **调试复杂度提升**:由于引入更层次结构,错误定位变得更加困难; 综上所述,成功迁移应用程序GPU架构不仅取决于技术选型本身,同时也离不开细致入微的操作维护工作。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值