本人使用的是gpu环境,如果你是cpu环境,则本帖子可能不适用。
遇到该问题首先确保使用的是源码启动,如果不是,请到github下载源码运行。
接下来,确保自己使用的是与cuda版本相对应的onnxruntime-gpu包,具体可在该帖子查看:
https://blog.youkuaiyun.com/x1131230123/article/details/120422132
安装正确的onnxruntime-gpu包后,再次导入自定义模型,这个时候可能会出现报错:
CreateExecutionProviderInstance CUDA PATH is set but CUDA wasnt able to be loaded.
这表明设备安装了cuda,但没有启动成功,本人经过搜索,发现是由于安装cuda时,默认不安装cudnn导致,但是由于pytorch包自带了cudnn运行所需文件,因此我们在执行训练时不会出错。
接下来介绍一种简单的安装cudnn的方法,首先确保你的设备安装了conda,然后使用命令:
conda activate your_env_name
conda install cudnn
重新打开程序即可