ssh连服务器docker中运行。
可以先查看gpu运行状态,找空的gpu的id,比如是0,2,5,9这四个gpu
watch -n 0.1 nvidia-smi
代码中加入
device = torch.device('cuda')
model = nn.DataParallel(model.to(device))
在运行得时候指定gpu即可(注意DEVICES最后有一个S,被这个坑了)
CUDA_VISIBLE_DEVICES=0,2,5,9 python test.py
本文介绍如何通过SSH连接服务器,并在Docker容器内利用特定GPU进行深度学习模型训练。首先,使用watch命令监控GPU状态,找到可用的GPU ID。然后,在代码中设置设备为CUDA,并使用DataParallel进行模型并行化。最后,通过设置CUDA_VISIBLE_DEVICES环境变量来指定使用的GPU。
1万+

被折叠的 条评论
为什么被折叠?



