在之前的一篇博客中提到了Pytorch框架下,模型使用GPU多卡并行运算来解决显存不足的问题,即使用:
Pytorch框架下使用多台GPU的数据并行运算的指令
import torch
from torch.nn.parallel import DataParallel
if torch.cuda.device_count() > 1:
model = DataParallel(model) #数据并行运算
探讨PyTorch中DataParallel的使用,模型结构变化及加载时可能出现的错误,提供了解决方案:预封装和解封装模型。
在之前的一篇博客中提到了Pytorch框架下,模型使用GPU多卡并行运算来解决显存不足的问题,即使用:
Pytorch框架下使用多台GPU的数据并行运算的指令
import torch
from torch.nn.parallel import DataParallel
if torch.cuda.device_count() > 1:
model = DataParallel(model) #数据并行运算
1947
8596
8156
553

被折叠的 条评论
为什么被折叠?