单个小批量上的多GPU训练
(1)将小批量数据样本划分并复制到各个显存上;
(2)在各块GPU上分别反向传播;
(3)把各块显存上的梯度加起来;
(4)广播到所有显存上;
(5)在各块显存上分别更新模型参数。
本文概述了使用多GPU进行小批量训练的关键步骤:数据分片到各GPU显存,独立反向传播,汇总梯度,同步更新模型参数。
单个小批量上的多GPU训练
(1)将小批量数据样本划分并复制到各个显存上;
(2)在各块GPU上分别反向传播;
(3)把各块显存上的梯度加起来;
(4)广播到所有显存上;
(5)在各块显存上分别更新模型参数。
5488
1378
5487

被折叠的 条评论
为什么被折叠?