PyTorch DDP流程和SyncBN、ShuffleBN

整体框架

import torch.distributed as dist
from torch.nn.parallel import DistributedDataParallel as DDP

def train(local_rank, world_size):
    # 初始化进程组
    dist.init_process_group("nccl", rank=local_rank, world_size=world_size)
    torch.cuda.set_device(local_rank)
    
    # 数据加载器
    dataset = MyDataset()
    sampler = DistributedSampler(dataset)
    dataloader = DataLoader(dataset, sampler=sampler)
    
    # 模型与DDP包装
    model = MyModel().to(local_rank)
    model = DDP(model, device_ids=[local_rank])
    
    # 优化器
    optimizer = torch.optim.Adam(model.parameters())
    
    # 训练循环
    for epoch in range(epochs):
        sampler.set_epoch(epoch)
        for batch in dataloader:
            outputs = model(batch)
            loss = compute_loss(outputs)
            loss.backward()
            optimizer.step()
            optimizer.zero_grad()
        
        # 保存模型(仅主进程)
        if local_rank == 0:
            torch.save(model.module.state_dict(), "model.pth")
    
    # 清理进程组
    dist.destroy_process_group()

分布式命令


                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值