pytorch将cpu训练好的模型参数load到gpu上,或者gpu->cpu上
假设我们只保存了模型的参数(model.state_dict())到文件名为modelparameters.pth, model = Net()
1. cpu -> cpu或者gpu -> gpu:
checkpoint = torch.load('modelparameters.pth')
model.load_state_dict(checkpoint)
2. cpu -> gpu 1
torch.load('modelparameters.pth', map_location=lambda storage, loc: storage.cuda(1))
3. gpu 1 -> gpu 0
torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'})
4. gpu -> cpu
torch.load('modelparameters.pth', map_location=lambda storage, loc: storage)
或者:
如果出现这个报错
RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False.
If you are running on a CPU-only machine, please use torch.load with map_location='cpu' to map your storages to the CPU.
torch.load(opt.model,map_location='cpu')
方便查阅
本文详细介绍了如何在PyTorch中将模型参数从一个设备加载到另一个设备,包括从CPU到GPU、从GPU到CPU以及在不同GPU间进行迁移的方法。同时,针对在特定环境下可能遇到的运行时错误提供了解决方案。
1万+

被折叠的 条评论
为什么被折叠?



