深度学习加速框架onnxruntime-gpu的环境依赖,pytorch转onnx环境,cuda、cudnn、onnxruntime-gpu环境配置

本文介绍了如何在CUDA 10.1和11.3环境下配置PyTorch、ONNXRuntime-GPU、CUDA和CUDNN的依赖关系。对于CUDA 10.1,推荐使用cuda10.1.243、cudnn7.6.5、onnxruntime-gpu1.4.0和pytorch1.7.1;对于CUDA 11.3,则建议cuda11.3.1、cudnn8.2.1、pytorch1.8.1和onnxruntime-gpu1.9.0。此外,还提供了conda安装这些依赖的命令以及如何将PyTorch模型转换为ONNX并进行批量推理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近遇到2080ti显卡的训练与部署环境,迁移到3090显卡的机子上面,由于30系显卡需要nvidia cuda11版本以上才支持,原先的驱动比较老了只能支持cuda10.2。根据当前的版本情况,本文记录一下pytorch转onnx,用onnxruntime-gpu进行部署的一些版本依赖。

 linux环境、nvidia驱动、cuda、cudnn、pytorch之间的依赖,conda简易安装cuda、cudnn等环境,已在下文中写明:

构建docker环境能够运行自己的GPU服务,能够快速适应不同宿主机的GPU型号、操作系统和驱动。linux版本、nvidia驱动、cuda、cudnn,docker+conda安装深度学习环境_chen10314的博客-优快云博客


 

1. cuda10.1的依赖

cuda版本:10.1.243

cudnn版本:7.6.5

onnxruntime-gpu版本:1.4.0

pytorch版本:1.7.1

这个配置的考虑:onnxruntime-gpu1.4.0支持cuda10.1, 如果不用30系的卡cuda11版本以下可用

 以下附上linux操作系统cuda加速推理下的onnxruntime-gpu的版本依赖 :

CUDA - onnxruntime

简易安装步骤:

conda install cudatoolkit=10.1 cudnn==7.6.5 pytorch==1.7.1 -c pytorch --yes
pip install onnxruntime-gpu==1.4.0

2. cuda11.3的依赖

cuda版本:11.3.1

cudnn版本:8.2.1

pytorch版本:1.8.1

onnxruntime-gpu版本:1.9.0

这个配置的考虑:pytorch1.7只能支持到cuda11.0因此升级到1.8,conda的cudnn8.0.4没法直接安装,所以考虑到安装方便采用cuda11.3。这里对宿主机的nvidia驱动版本有要求,下有链接。

简易安装步骤:

conda install cudatoolkit=11.3 cudnn==8.2.1 pytorch==1.8.1 -c pytorch --yes
pip install onnxruntime-gpu==1.9

上面cuda10.1环境下pytorch pt文件转换的onnx文件,大都可在此cuda11.3的onnxruntime-gpu下正常运行。


将huggingface transformer构建的bert,转换为onnx且支持batch推理,BERT模型推理时加速,已在下文中写明:

pytorch构建的深度学习模型(pt文件)转换为onnx格式,并支持batch输入,以bert模型为例_chen10314的博客-优快云博客

<think>嗯,用户想了解ONNX Runtime 1.16版本CUDAcuDNN的兼容性以及配置方法。首先,我需要回忆一下ONNX Runtime的版本发布情况,尤其是1.16版本的相关信息。ONNX Runtime通常会支持特定的CUDAcuDNN版本,但具体对应关系可能需要查阅官方文档或者发布说明。 我记得ONNX Runtime的不同版本CUDA的支持有所不同。比如,1.15可能支持CUDA 11.x,而1.16可能延续或更新了支持版本。需要确认1.16是否支持CUDA 11.8或12.x。cuDNN版本通常需要和CUDA版本对应,比如CUDA 11.x对应cuDNN 8.x。 接下来,用户可能需要具体的配置步骤,比如如何安装对应的CUDAcuDNN,以及在构建或安装ONNX Runtime时的配置选项。例如,使用pip安装时可能需要指定正确的版本,或者从源码编译时需要启用CUDA支持并链接正确的库路径。 还要注意系统环境的要求,比如Linux和Windows可能有所不同,是否需要特定版本的驱动,以及是否存在已知的兼容性问题。例如,某些CUDA版本可能需要特定版本的NVIDIA驱动程序,用户需要确保系统满足这些前置条件。 另外,用户可能遇到常见问题,比如版本不匹配导致的错误,这时候需要提供解决方法,例如重新安装指定版本的库,或者调整环境变量。可能还需要检查ONNX Runtime的官方文档或GitHub issues是否有相关讨论。 最后,生成相关问题时,要考虑用户可能进一步想知道如何验证安装是否成功,或者性能优化的建议,以及与其他框架的集成情况。这些可以作为相关问题提出,帮助用户更全面地了解ONNX Runtime的配置和使用。</think>### ONNX Runtime 1.16 与 CUDA/cuDNN 兼容性及配置指南 #### 1. 版本对应关系 根据 ONNX Runtime 官方文档[^1],**1.16 版本**的兼容性如下: - **CUDA 版本**:支持 CUDA 11.8 和 12.0 - **cuDNN 版本**:需与 CUDA 版本匹配,推荐 cuDNN 8.9.4 (对应 CUDA 11.8) 或 cuDNN 8.9.5 (对应 CUDA 12.0) - **NVIDIA 驱动**:需 ≥ 525.60(CUDA 11.8)或 ≥ 535.54(CUDA 12.0) #### 2. 配置步骤 **步骤 1:安装 CUDA/cuDNN** ```bash # 示例:CUDA 11.8 + cuDNN 8.9.4 wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run sudo sh cuda_11.8.0_520.61.05_linux.run # cuDNN 安装需手动解压并复制库文件到 CUDA 目录 ``` **步骤 2:安装 ONNX Runtime-GPU 版本** ```bash # 使用 pip 安装预编译包(需匹配 CUDA 版本) pip install onnxruntime-gpu==1.16.0 ``` **步骤 3:验证安装** ```python import onnxruntime as ort print(ort.get_device()) # 应输出 "GPU" print(ort.get_available_providers()) # 应包含 "CUDAExecutionProvider" ``` #### 3. 常见问题处理 - **CUDA/cuDNN 版本冲突**:通过 `nvcc --version` 和 `cat /usr/local/cuda/version.txt` 检查版本 - **GPU 未被识别**:确保环境变量 `CUDA_HOME` 指向正确路径(如 `/usr/local/cuda-11.8`) - **性能优化**:启用 `arena_extend_strategy` 和 `cudnn_conv_algo_search` 参数[^1] #### 4. 注意事项 - Windows 系统需额外安装 [CUDA Toolkit](https://developer.nvidia.com/cuda-toolkit) 并配置 `PATH` - Docker 用户可使用预置镜像 `mcr.microsoft.com/azureml/onnxruntime:latest`
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值