为什么有的.pth文件储存的是数字有些.pth储存的是网络结构?

.pth文件通常用于保存PyTorch模型的参数,包括权重和偏置,而不是模型架构。模型架构存在于代码中。torch.load加载.pth文件用于恢复模型状态,继续训练或推理。错误的保存方式可能导致.pth文件包含模型结构,正确的保存应使用torch.save(obj=self.state_dict())或torch.save(obj=model)。

对自己之前的一段代码的.pth文件里面储存的内容有些疑惑,因为有时候.pth文件储存的是网络结构,而有些储存的是数据,例如:

from collections import OrderedDict
import torch
import torch.nn as nn

class MDNet(nn.Module):
def init(self, model_path=None, K=1):
super(MDNet, self).init()
self.avgpool=nn.AdaptiveAvgPool2d(1)
self.layers=nn.Sequential(OrderedDict([
(‘conv1’, nn.Sequential(nn.Conv2d(3, 96, kernel_size=7, stride=2),
nn.ReLU(inplace=True),
nn.LocalResponseNorm(2),
nn.MaxPool2d(kernel_size=3, stride=2))),
(‘conv2’, nn.Sequential(nn.Conv2d(96, 256, kernel_size=5, stride=2),
nn.ReLU(inplace=True),
nn.LocalResponseNorm(2),
nn.MaxPool2d(kernel_size=3, stride=2))),
(‘conv3’, nn.Sequential(nn.Conv2d(256, 512, kernel_size=3, stride=1),
nn.ReLU(inplace=True))),
# (‘fc4’, nn.Sequential(nn.Linear(500, 512),
# nn.ReLU(inplace=True))),
# (‘fc5’, nn.Sequential(nn.Dropout(0.5),
# nn.Linear(500, 512),
# nn.ReLU(inplace=T

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值