RuntimeError: DataLoader worker (pid(s) 46220) exited unexpectedly

本文探讨了PyTorch中DataLoader出现worker异常退出错误的原因,并提供了调整batch_size、num_workers参数及禁用pin_memory等解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述

raise RuntimeError(‘DataLoader worker (pid(s) {}) exited unexpectedly’.format(pids_str)) from e
   RuntimeError: DataLoader worker (pid(s) 46220) exited unexpectedly

其实吧,这个问题说难不难,说简单也简单。
出现这个Error很明显,就是CPU加载数据和GPU处理数据速度不匹配了,而且不是以往那种CPU利用率拉满,而GPU虽然占用率拉满,但实际利用率不高的情况。打个比方,以前是cpu加载数据要个20-30s,但gpu零点几秒就处理完成了,从而一直等待。这种情况只会让模型运行时间变长而已。

torch.utils.data.DataLoader(datasets[x], batch_size=batch_size, shuffle=True, num_workers=8, pin_memory=True)

现在则是两极反转,Dataloader的batchsize设置的比较大(64,128),而且还使用多个num_workers去多进程load数据,比如16-32个,甚至还把pin_memory设为True了。导致cpu加载数据快到飞起,反而GPU跟不上了,就会出现异常,然后杀死进程,出现如上结果。

解决方案

就是根据以上提的三点来呗

  1. batchsize减小
  2. num_workers设的小一点,比如2,甚至不设置(默认为1)
  3. pin_memory = False

以上3点使用一至两种一般就能解决,不行就都用。

并且把数据加载,预/后处理这种IO任务让GPU去做, load checkpoint的时候 map_location也别设成cpu了,这么拉后腿,肯定可以成功。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值