pytorch框架学习(17)——模型的保存与加载

本文介绍PyTorch中序列化与反序列化的基本概念,包括模型的两种保存方式:保存整个Module和仅保存模型参数。同时,详细讲解如何通过保存检查点实现模型的断点续训练,确保训练过程的连续性和效率。
部署运行你感兴趣的模型镜像

1. 序列化与反序列化

  • 序列化:将内存中的每一个对象保存到硬盘当中,以二进制序列的形式存储下来
  • 反序列化:将硬盘中存储的二进制数据反序列化的放到内存当中
    在这里插入图片描述

2. 模型保存与加载的两种方式

pytorch当中的序列化与反序列化函数:

  1. torch.save

    • 主要参数:
      • obj:对象
      • f:输出路径
  2. torch.load

    • 主要参数:
      • f:文件路径
      • map_location:指定存放位置,cpu or gpu

有两种保存模型的方法:

  • 方法1:保存整个Module, torch.save(net, path)
  • 方法2:保存模型参数(模型的可学习参数,推荐)
    • state_dict = net.state_dict()
    • torch.save(state_dict, path)

3. 模型断点续训练

在这里插入图片描述
解决意外中断,可继续训练的问题

参数保存:

checkpoint_interval = 5
"""省略了模型实现代码,checkpoint保存参数部分应该在模型训练部分,每个epoch中"""
if (epoch+1) % checkpoint_interval == 0:

    checkpoint = {"model_state_dict": net.state_dict(),
                  "optimizer_state_dict": optimizer.state_dict(),
                  "epoch": epoch}
    path_checkpoint = "./checkpoint_{}_epoch.pkl".format(epoch)
    torch.save(checkpoint, path_checkpoint)

checkpoint加载恢复:
保持原实现代码不变,在模型训练部分之前,加入断电恢复代码,如下所示:

path_checkpoint = "./checkpoint_4_epoch.pkl"
checkpoint = torch.load(path_checkpoint)

net.load_state_dict(checkpoint['model_state_dict'])

optimizer.load_state_dict(checkpoint['optimizer_state_dict'])

start_epoch = checkpoint['epoch']

scheduler.last_epoch = start_epoch

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Aidanmomo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值