一、理论知识
【分布式训练】单机多卡的正确打开方式(一):理论基础 - 知乎瓦砾由于最近bert-large用的比较多,踩了很多分布式训练的坑,加上在TensorFlow和PyTorch之间更换,算是熟悉了一下各类框架的分布式训练接口,由于集中在一起讲可能比较乱,笔者准备分三到四篇来讲一下深度学习的…https://zhuanlan.zhihu.com/p/72939003【分布式训练】单机多卡的正确打开方式(三):PyTorch - 知乎拖更拖更了,今天讲一下PyTorch下要如何单机多卡训练。不铺垫了,直接干货。 PyTorch的数据并行相对于TensorFlow而言,要简单的多,主要分成两个API: DataParallel(DP):Parameter Server模式,一张卡为reducer…
https://zhuanlan.zhihu.com/p/74792767
二、实战