RuntimeError: Error(s) in loading state_dict for ModuleList: size mismatch for 17.weight: copying a param with shape torch.Size([512, 256, 3, 3]) from checkpoint, the shape in current model is torch.Size([512, 512, 3, 3]).解决办法
参数不匹配问题,一般把训练的权重文件换成自己的就可以运行。
主要是记录一下自己平时遇到的问题,和大家分享一下
如有侵犯,请联系我
点个赞支持一下吧
本文记录了解决PyTorch中模块列表加载权重时遇到的size mismatch问题,即17.weight参数从checkpoint复制过来的shape与模型中不符。分享了常见解决方案——替换为匹配的训练权重。
2067





