使用DDP进行多卡加速训练,卡在以下位置:
----------------------------------------------------------------------------------------------------
distributed_backend=nccl
All distributed processes registered. Starting with 8 processes
----------------------------------------------------------------------------------------------------
解决方法
export NCCL_P2P_DISABLE=1
文章探讨了如何使用DDP进行多GPU训练时遇到的问题,尤其是在设置distributed_backend为nccl时。提供了通过设置环境变量NCCL_P2P_DISABLE为1来解决卡顿的解决方法。
1350

被折叠的 条评论
为什么被折叠?



