点云语义分割:Cylinder3D多卡训练
官方提供的代码只支持单卡训练,训练一次要特别长的时间,我训练40个epoch用了7天时间。这篇文章就来记录一下如何根据官方的代码修改成多机多卡模式,同时复习一下pytorch的DDP模式。
一、DDP
DistributedDataParallel(DDP)是一个支持多机多卡、分布式训练的深度学习工程方法。PyTorch现已原生支持DDP,可以直接通过torch.distributed使用。核心代码用一句
model = DDP(model, device_ids=[local_rank], output_device=local_rank)
下面具体看看怎么把Cylinder3D的代码修改成DDP模式。