pytorch GPU并行报错

本文解决了一个常见的PyTorch多GPU并行运行时错误:module must have its parameters and buffers on device cuda:2 but found one of them on device: cuda:0。通过设置torch.cuda.set_device(2)来指定主GPU,确保所有参数和缓冲区位于相同的GPU上。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

错误:RuntimeError: module must have its parameters and buffers on device cuda:2 (device_ids[0]) but found one of them on device: cuda:0

解决:代码开头加上:

torch.cuda.set_device(2)

原因:我设置的并行GPU为2,3,而默认的GPU是0

model = torch.nn.DataParallel(model, device_ids=[2,3]) #指定GPU

而提供的多 GPU 并行列表必须要包含有主 GPU,既然不能加上主GPU(0正在跑别的代码),那就改变主GPU

更多信息可以参看:https://www.cnblogs.com/ranjiewen/p/10113532.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值