nn.DataParallel单机多卡 yolo相关
Expected all tensors to be on the same device, but found at least two devices, cuda:1 and cuda:0! (when checking argument for argument weight in method wrapper__cudnn_convolution),
解决方法如下:
把所有
self.forward = 赋值1
self.forward = 赋值2
....
self.forward = self.forward_layer_scale...这种self.forward被赋值的写法全部改写:
新建foward方法重写 而不是应该新建有关forward_..之类的方法
感谢开源
文章讲述了在使用nn.DataParallel进行单机多卡训练Yolo模型时遇到的设备不一致错误,解决方法是将原本针对特定层的forward方法赋值操作改为全局的forward方法重写,强调了代码组织的注意事项。
1913

被折叠的 条评论
为什么被折叠?



