使用Pytorch进行多GPU训练数据

今天尝试使用多显卡训练PyTorch代码。
在这里插入图片描述
不过训练时报错,查找代码发现此前曾设定单一GPU训练,如下。
在这里插入图片描述
将其注释掉,再次运行,又发现报错。
在这里插入图片描述
查找资料发现训练模型所使用的显卡必须要包括主卡,而我在设置训练GPU时,默认0卡为主卡,但却没有使用,所以会报错。

gpu_ids = '1, 2'

如果要将其他卡设置为主卡,例如我们这里将卡1设为主卡,卡2并行训练,则需要在训练脚本中添加如下代码,表明让程序可视卡1、卡2。此时实际显卡编号“1, 2”的索引分别为“0, 1”,所以我们需要更改gpu_ids=‘0, 1’,表明使用运算显卡编号“0, 1”进行训练。

os.environ["CUDA_VISIBLE_DEVICES"] = "1, 2"

至此,代码已经修改完毕,可以正常多GPU训练。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值