在使用Tensorflow 分布式训练出现的Non-OK-status: GpuLaunchKernel问题

当使用Tensorflow的keras和MirroredStrategy进行多GPU训练时,遇到`GpuLaunchKernel`错误,该问题源于batch_size与GPU数量不匹配。解决方法是确保batch_size是GPU数量的整数倍。例如,将batch_size从1调整到2可以成功解决问题。
部署运行你感兴趣的模型镜像

项目场景:

使用Tensorflow的keras进行模型构建,然后使用tf.distribute.MirroredStrategy进行多gpu训练


问题描述

在调试完其他部分然后开始训练,执行model.fit语句时报出了下面的错误,之后程序就停止运行了。

Non-OK-status: GpuLaunchKernel( SwapDimension1And2InTensor3UsingTiles<T, NumThreads, TileLongSide, TileShortSide>, total_tiles_count, NumThreads, 0, d.stream(), input, input_dims, output) status: Internal: invalid configuration argument
Aborted (core dumped)
	}

但在使用单gpu进行训练时未发现有错误。


原因分析:

batch_sizegpu数量关系不匹配导致的,在使用多个gpu训练时,每个gpu上的负载的数据量为batch_size / gpu_num,因此batch_size要是使用gpu数量的整数倍。我这里之前是用单gpu进行训练的,batch_size=1,然后用的是2个gpu进行训练,batch_size没有更改导致的。


解决方案:

batch_size改为使用的gpu数量的整数倍即可。我的程序中就将batch_size修改为batch_size=2完美解决。

参考内容:Tensorflow mirrored strategy error: Non-OK-status: GpuLaunchKernel( SwapDimension1And2InTensor3UsingTiles)

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值