分布式通信包 - torch.distributed
torch.distributed包为在一台或多台机器上运行的多个计算节点上的多进程并行性提供PyTorch支持和通信原语。类 torch.nn.parallel.DistributedDataParallel()基于此功能构建,以提供同步分布式训练作为包装器任何PyTorch模型。
介绍torch.distributed包如何支持多节点并行计算及同步分布式训练。基于此功能构建的DistributedDataParallel()类能轻松实现PyTorch模型的分布式训练。
分布式通信包 - torch.distributed
torch.distributed包为在一台或多台机器上运行的多个计算节点上的多进程并行性提供PyTorch支持和通信原语。类 torch.nn.parallel.DistributedDataParallel()基于此功能构建,以提供同步分布式训练作为包装器任何PyTorch模型。
4363

被折叠的 条评论
为什么被折叠?