pytorch模型保存与加载(保存最优参数)

文章介绍了提升模型精度的方法,包括数据增强、学习率衰减、dropout防止过拟合、正则化和BN层的应用,以及迁移学习和微调。在训练过程中,通过保存每个epoch的state_dict,当测试精度最高时记录并保存这些参数。之后详细展示了如何在PyTorch中保存和加载最优模型状态。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

提升模型精度

  • 数据增强(也就是pytorch里面的图像预处理)
  • 学习率衰减
  • 更好的优化方法(Adam\lookhead)
  • dropout(防止过拟合)正则化
  • BN层(是数据分布相同)
  • 迁移学习+微调
  • +增加数据集
    以上几种方法 往往能够提升模型精度

在训练数据集时,怎么保存预测精度最高的参数(第几个epoch对应的精度)

保存模型(字典形式的保存)

state_dict就是一个简单的Python字典,它将模型中的可训练参数(比如weights和biases,batchnorm的running_mean、torch.optim参数等)通过将模型每层与层的参数张量之间一一映射,实现保存、更新、变化和再存储。

在这里插入图片描述

  • 恢复模型前,需要先把模型的网络结果写出来

完整模型的保存与加载

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

训练函数保存最优参数

在这里插入图片描述
在训练过程中把预测效果最优的参数保存下来,然后再加载预测。其代码如下:
在这里插入图片描述

model = Net()
if torch.cuda.is_available():
    model.to('cuda')
    
optim = torch.optim.Adam(model.parameters(), lr=0.001)
best_model_wts = copy.deepcopy(model.state_dict())
best_acc = 0.0

train_loss = []
train_acc = []
test_loss = []
test_acc = []

for epoch in range(epochs):
    epoch_loss, epoch_acc, epoch_test_loss, epoch_test_acc = fit(epoch,
                                                                 model,
                                                                 train_dl,
                                                                 test_dl)
    train_loss.append(epoch_loss)
    train_acc.append(epoch_acc)
    test_loss.append(epoch_test_loss)
    test_acc.append(epoch_test_acc)
    
    
    if epoch_test_acc > best_acc:
        best_acc = epoch_acc
        best_model_wts = copy.deepcopy(model.state_dict())        

model.load_state_dict(best_model_wts)
model.eval()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值