【pytorch】加载模型出现的bug

在模型训练完后再进行测试加载模型后出现bug,显示如下错误

 

据了解是由于pytorch版本导致的错误,可能与自己训练阶段保持的模型方式有关,训练阶段保存方式如下:

解决方案如下:

方法一:

generator.load_state_dict({k.replace('module.', ''): v for k, v in torch.load(generator_1_10.pth).items()})

实际上就是将load进行的权重的有序字典里面的键值前面的的7个字符’module.'去掉。加载进行的权重有序字典如下图所示:

 键就是每层的权重或者 bias 的名称,value就是其具体的张量值。

方法二:重新新建个有序字典:

from collections import OrderedDict
    #     new_state_dict = OrderedDict()
    #     for k, v in a.items():
    #         name=k[7:]  # reduce `module.`
    #         new_state_dict[name] = v
    #     # load params
    #     # model.load_state_dict(new_state_dict)
    #     model.load_state_dict(new_state_dict)

显然方法一更简洁明了。

### Hugging Face 加载模型时遇到 KeyError 的解决方案 当尝试加载训练模型时如果遇到了 `KeyError` 错误,这通常意味着代码试图访问字典中不存在的键。这种情况可能发生在配置文件、权重或其他资源未能正确匹配预期结构的时候。 对于 Hugging Face Transformers 库而言,此类错误可以由多种因素引起: - 特定于某些框架(如 PyTorch 或 TensorFlow)的问题 为了有效处理这个问题,建议采取以下措施来排查并解决问题[^1]: #### 验证模型名称准确性 确保所使用的模型名完全正确无误,并且该模型确实存在于 Hugging Face Model Hub 上。可以通过官方文档确认支持的具体型号列表以及其对应的字符串表示形式。 ```python from transformers import AutoModelForSequenceClassification, AutoTokenizer model_name = "distilbert-base-uncased-finetuned-sst-2-english" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSequenceClassification.from_pretrained(model_name) ``` #### 更新库至最新版 有时旧版本可能存在 bug 导致异常行为;因此保持使用最新的稳定发布版本有助于减少潜在冲突。 ```bash pip install --upgrade transformers pip install --upgrade accelerate # 如果适用的话 ``` #### 使用 try-except 结构捕获异常 通过编写健壮性的代码逻辑,在发生未知状况时能够给出更友好的提示信息而不是直接抛出难以理解的技术报错。 ```python try: model = AutoModelForSequenceClassification.from_pretrained("some_model") except Exception as e: print(f"Failed to load the model due to {e}") ``` #### 查看日志输出 启用详细的调试模式可以帮助定位具体哪一步骤出现了偏差。设置环境变量 `TRANSFORMERS_VERBOSITY=debug` 可让程序运行期间打印更多内部状态以便分析。 ```bash export TRANSFORMERS_VERBOSITY=debug python your_script.py ``` 以上方法应该能帮助解决大部分情况下由于 `KeyError` 引起的问题。不过需要注意的是,实际开发过程中还可能会碰到其他类型的挑战,这时查阅官方 GitHub Issues 页面往往能找到相似案例及其对应解答[^1]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值