【学习笔记】pytorch多gpu

本文介绍如何通过SSH连接服务器,并在Docker容器内利用特定GPU进行深度学习模型训练。首先,使用watch命令监控GPU状态,找到可用的GPU ID。然后,在代码中设置设备为CUDA,并使用DataParallel进行模型并行化。最后,通过设置CUDA_VISIBLE_DEVICES环境变量来指定使用的GPU。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ssh连服务器docker中运行。

可以先查看gpu运行状态,找空的gpu的id,比如是0,2,5,9这四个gpu

watch -n 0.1 nvidia-smi

代码中加入

device = torch.device('cuda')
model = nn.DataParallel(model.to(device))

在运行得时候指定gpu即可(注意DEVICES最后有一个S,被这个坑了)

CUDA_VISIBLE_DEVICES=0,2,5,9  python test.py

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值