Pytorch加载模型时报错

在Pytorch中遇到加载模型时的'Unexpected key(s) in state_dict'错误,问题源于多GPU训练保存的模型带有'module.'前缀。解决方案包括在加载时使用'strict=False'参数或手动修改权重键值对,移除'module.'前缀,确保模型与权重匹配。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

加载模型时出现Unexpected key(s) in state_dict错误

报错截图如下:
在这里插入图片描述
反复排查问题没发现为何如此,查看pytorch中文文档发现保存和加载模型方法都完全正确,模型保存和加载代码对比中文文档截图如下:
在这里插入图片描述
其中一个方法是在加载模型时添加参数strict=False,可以只保留键值相同的参数避免出错,用法如下:model.load_state_dict(ckpt[‘state_dict’],False),注意ckpt是我加载权重时自定义的对象名。
但是继续训练发现实际上原有的权重都没有加载进来,因为没有键值相同的参数。此处行不通

继续深究发现多一个module是因为通过多GPU训练保存的模型!如果是在cpu训练的模型则不会带有module,解决很简单,在加载权重前先将模型映射到GPU训练,
model = torch.nn.DataParallel(model)
ckpt = torch.load(args.weights)
model.load_state_dict(ckpt[‘state_dict’])
或者还有解决办法,直接将权重里面key值中含有的module.删掉,改写权重键值对
ckpt = torch.load(model_path,map_location=‘cpu’)
from collections import OrderedDict
new_state_dict = OrderedDict()
for k, v in

### YOLOv8 模型运行常见报错及其解决方案 #### 训练损失出现NAN问题 当训练过程中的损失函数返回NaN值,这通常表明数值计算不稳定。一种可能的原因是学习率设置过高。 - **调整学习率**:尝试减小当前的学习率参数配置[^1]。 另一种常见的原因是数据预处理不当或存在异常值。 - **检查输入数据**:确保所有图像都经过标准化处理,并且没有损坏的数据文件被加载到训练集中。 #### 多线程报错-"freeze_support()" 此错误发生在Windows平台上启动多进程不调用`if __name__ == '__main__':`保护下的入口点。 - **修正程序结构**:在脚本顶部添加如下代码片段来防止此类错误发生: ```python import multiprocessing as mp if __name__ == "__main__": mp.freeze_support() ``` 对于某些特定环境,还可以考虑升级Python版本以获得更好的兼容性和稳定性支持。 #### 字体属性访问失败 (`AttributeError`) 该问题是由于Pillow库内部API变更引起的,在较新的版本中移除了`getsize()`方法。 - **降级Pillow版本**:将PIL/Pillow包回滚至9.5.x系列可以有效规避这个问题;或者修改源码适配新接口[^3]。 #### CUDA内存不足 (OutOfMemoryError) 如果显存不足以容纳整个批次的数据,则会触发OOM错误。 - **减少批量大小(batch size)**:通过降低每次迭代所使用的样本数量来缓解资源压力; - **优化模型架构**:精简网络层数量或采用更高效的卷积操作实现方式,比如使用深度可分离卷积代替标准二维卷积层。 #### 不显示GFLOPs统计信息 有即使设置了相应的选项也无法正常输出每秒浮点运算次数(FLOPS)指标。 - **确认依赖项已正确安装**:特别是像thop这样的第三方工具包是否已经成功集成到了项目环境中; - **查阅官方文档获取最新指导说明**:随着框架不断演进,部分功能的具体启用步骤可能会有所变化。 #### 多GPU同步问题 针对分布式并行计算场景下可能出现的任务分配不合理现象。 - **合理规划硬件资源配置策略**:依据实际可用设备数目动态调整参与协作的工作节点数; - **遵循PyTorch Lightning等高级封装所提供的最佳实践建议**:这些库往往内置了许多有助于简化复杂流程的设计模式和实用技巧。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值