【pytorch】单机多GPU报错 :Expected all tensors to be on the same device, but found at least two devices

单机多GPU训练:

如果不使用太复杂的模型,只需调整一下模型跟数据就可以设置为单机多GPU训练:

import os
from torch.nn.parallel import DataParallel
os.environ['CUDA_VISIBLE_DEVICES'] ='2,3'

model = DataParallel(model)                       # 调整模型


 for step, pack in enumerate(tqdm(train_data_loader)):

      # img = pack['img'][0].cuda()
      img = pack['img'].data[0].cuda()          # 调整数据
      gt_sem_seg=pack['gt_semantic_seg'].data[0].cuda()

很多情况下这样就可以了,但是有时候还是会报错:RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:1 and cuda:0

报错的原因及解决思路

只管的报错原因就是两个数据在不通的GPU上,代码中出现了使它们进行运算地方。按理说不会出现这个原因(pytorch给自动分配好了),但有的模型的有些判断语句或者复制语句,不被python多线程调用更新,就会出现问题,比如这里:

 for i in self.unlabeled_cats:
     assert torch.all(gt_semantic_seg != i), f'Ground-truth leakage! {i}'
 for i in self.clip_unlabeled_cats:
     assert torch.all(gt_semantic_seg != i), f'Ground-truth leakage! {i}'

程序刚开始运行的时候:unlabeled_catsclip_unlabeled_catsgt_semantic_seg 都在cuda0上面,但是在下一个线程调用的时候,gt_semantic_seg 已经是cuda1上面的了,但是unlabeled_catsclip_unlabeled_cats还在是cuda0上。这时候手动更新,将unlabeled_catsclip_unlabeled_cats移动到cuda1上进行判断。比如这里:

 for i in self.unlabeled_cats.to(gt_semantic_seg.device):
      assert torch.all(gt_semantic_seg != i), f'Ground-truth leakage! {i}'
  for i in self.clip_unlabeled_cats.to(gt_semantic_seg.device):
      assert torch.all(gt_semantic_seg != i), f'Ground-truth leakage! {i}'

类似的还有其他地方,比如这里也可这样改:

match_matrix = output[unlabeled_idx]  
   if unlabeled_cats.device==gt_semantic_seg.device:             #判断是否移动device设备
       gt_semantic_seg[unlabeled_idx] = unlabeled_cats[match_matrix.argmax(dim=1)]
   else:    
       gt_semantic_seg[unlabeled_idx] = unlabeled_cats.to(gt_semantic_seg.device)[match_matrix.argmax(dim=1)]
### YOLO 模型训练或推理时遇到的设备不一致错误解决方案 当在YOLO模型中执行训练或推理操作时,如果遇到了`RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!`这样的错误提示,这通常意味着某些张量被分配到了不同的计算设备上(例如GPU和CPU),而这些张量之间发生了交互操作。 为了确保所有的张量都在同一个设备上运行,可以采取以下措施: #### 方法一:统一指定默认设备 通过设置全局变量来控制所有新创建的对象应该放置在哪种类型的硬件资源之上。可以通过如下方式实现: ```python device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu') model = model.to(device) ``` 这段代码会检查是否有可用的CUDA GPU;如果有,则将模型迁移到该GPU上工作,否则就继续留在CPU环境中[^5]。 #### 方法二:显式转换特定对象到目标设备 对于那些已经存在的张量或者其他PyTorch组件,在它们参与任何运算之前先将其移动至预期的工作环境之中。比如下面的例子展示了如何处理锚点坐标数据: ```python anchor_points = self.anchor_points(samples).repeat(batch_size, 1, 1) # decode the points as prediction output_coord = regression + anchor_points.to(regression.device) ``` 这里特别注意的是`.to()`函数的应用,它能够帮助我们将一个tensor转移到另一个已知位置上去。 #### 方法三:调试并定位问题源 有时候可能并不是很清楚具体哪些部分出现了跨设备的操作。此时建议开启详细的日志记录功能或是利用断点工具逐步排查程序逻辑中的每一个环节直到找到确切的原因所在。另外也可以尝试打印出各个重要节点处的数据属性信息以便更好地理解当前状态下的内存布局情况。 以上就是针对此类异常现象的一些常见应对策略,希望能够帮到正在为此困扰的朋友!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值