pytorch多gpu训练报错:RuntimeError: Caught RuntimeError in replica 0 on device 0.

本文讨论了在使用图卷积网络(GCN)进行多GPU训练时遇到的错误,主要问题在于nn.DataParallel无法有效处理parameter并行。为了解决这个问题,作者尝试将DataParallel替换为DistributedDataParallel。然而,这一改变带来了新的挑战,如defaultgpu负载过重,原因是torch.load默认将模型加载到defaultgpu。解决方案包括设置map_location参数为cpu,以及启用cudnn.benchmark和cudnn.enabled来优化显存使用。文章引用了多个资源链接,提供进一步的解决办法和最佳实践。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在进行图卷积多gpu训练的时候,报了这样的错误。

最开始版本的代码使用的是:nn.DataParallel 来进行多gpu训练。

但是其缺点也很明显,对于其维护较差,优点就是只用一行代码。

首先为什么会产生这样的错误,在于gcn对于weight和bias使用了parameter 关键词,在parallel中,无法做到对parameter的并行,导致了一些问题。

后来痛定思痛,决定替换DataParallel 为DistributedDataParallel,可参考下面链接1。

然而,没有那么顺利,替换了之后,还接着出错,发现default gpu负载较为严重,产生原因是在于torch.load的时候,自动加载到了default gpu上,可以将其改为

map_location=torch.device('cpu')

除此之外,可以加上这两句,来减少显存的使用。

torch.backends.cudnn.benchmark = True
torch.backends.cudnn.enabled = True

参考链接

1.  PyTorch Parallel Training(单机多卡并行、混合精度、同步BN训练指南文档) - 知乎

2. PyTorch 有哪些坑/bug? - 知乎用户Nr7C35的回答 - 知乎 https://www.zhihu.com/question/67209417/answer/866488638

3. pytorch多个显卡并行训练 RuntimeError: Caught RuntimeError in replica 0 on device 0._liu_yuan_kai的博客-优快云博客

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值