pytorch DataParallel 多GPU训练
当一台服务器有多张GPU时,运行程序默认在一张GPU上运行。通过多GPU训练,可以增大batchsize,加快训练速度。
from torch.nn import DataParallel
num_gpu = torch.cuda.device_count()
net = DataParallel(net, device_ides=range(num_gpu))
device_ides默认情况下...
原创
2018-11-01 10:48:43 ·
1675 阅读 ·
0 评论