要在 Ubuntu 22.04 上为 CUDA 12.2 安装适配的 cuDNN(针对 RTX A6000 显卡),需选择与 CUDA 12.2 兼容的 cuDNN 8.9.x 或 8.10.x 版本(这两个版本是 NVIDIA 官方推荐的 CUDA 12.2 最优搭配,稳定性和性能最佳)。
前提条件
- 已安装 CUDA 12.2 且
nvcc --version能正常显示版本(确保环境变量配置正确)。 - 拥有 NVIDIA 开发者账号(下载 cuDNN 需要,免费注册地址)。
安装步骤(推荐 deb 包方式,自动配置)
下载官方 cuDNN 8.9.7
- 官网下载地址:
cuDNN 8.9.7 for CUDA 12.x(需登录 NVIDIA 开发者账号)
对于已下载的 cudnn-local-repo-ubuntu2204-8.9.7.29_1.0-1_amd64.deb 本地包,可按以下步骤在 Ubuntu 22.04 上安装 cuDNN 8.9.7(适配 CUDA 12.2):
步骤 1:安装本地仓库包(添加 cuDNN 源)
该 .deb 包是 cuDNN 的本地仓库配置文件,安装后会将 cuDNN 源添加到系统中:
# 进入下载目录(替换为实际路径,例如 ~/Downloads)
cd ~/Downloads
# 安装本地仓库包
sudo dpkg -i cudnn-local-repo-ubuntu2204-8.9.7.29_1.0-1_amd64.deb
步骤 2:导入 GPG 密钥(验证包完整性)
安装仓库包后,需导入密钥以信任该源(密钥文件路径会在安装时显示,通常在 /var/cudnn-local-repo-ubuntu2204-8.9.7.29/ 目录下,替换以下路径中的密钥文件名(实际文件名可能略有差异,可通过 ls /var/cudnn-local-repo-ubuntu2204-8.9.7.29/ 查看):
# 替换以下路径中的密钥文件名(实际文件名可能略有差异,可通过 ls /var/cudnn-local-repo-ubuntu2204-8.9.7.29/ 查看)
sudo cp /var/cudnn-local-repo-ubuntu2204-8.9.7.29/cudnn-local-7F456618-keyring.gpg /usr/share/keyrings/
步骤 3:更新 apt 缓存并安装 cuDNN 组件
# 更新 apt 缓存,识别新添加的 cuDNN 源
sudo apt update
# 安装 cuDNN 核心库、开发库和示例(必须安装这三个组件)
sudo apt install libcudnn8=8.9.7.29-1+cuda12.2 # 运行时库
sudo apt install libcudnn8-dev=8.9.7.29-1+cuda12.2 # 开发库(编译依赖)
sudo apt install libcudnn8-samples=8.9.7.29-1+cuda12.2 # 示例代码(用于验证)
注意:版本号
8.9.7.29-1+cuda12.2需与下载的仓库包版本一致,若命令提示版本不存在,可通过apt search libcudnn8查看实际可用版本并调整。
步骤 4:验证安装是否成功
通过编译并运行官方示例验证:
# 复制示例代码到用户目录(避免权限问题)
cp -r /usr/src/cudnn_samples_v8/ ~/
# 进入 mnist 示例目录(经典深度学习验证案例)
cd ~/cudnn_samples_v8/mnistCUDNN
# 编译示例(需 CUDA 12.2 环境正常)
make clean && make
# 运行编译后的程序
./mnistCUDNN
若输出 Test passed!,则说明 cuDNN 8.9.7 已成功安装并与 CUDA 12.2 兼容。
补充说明
-
版本锁定:为防止系统自动更新 cuDNN 导致版本冲突,建议锁定版本:
sudo apt-mark hold libcudnn8 libcudnn8-dev libcudnn8-samples -
卸载旧版本:若之前安装过其他版本 cuDNN,需先卸载:
sudo apt --purge remove libcudnn8* -
依赖问题:若安装时提示缺少依赖,执行
sudo apt -f install修复依赖关系后重试。 - 多卡适配:cuDNN 对多卡(如你的两块 RTX A6000)无需额外配置,深度学习框架(如 PyTorch、TensorFlow)会自动识别并利用多卡资源。
- 版本对应关系:cuDNN 版本需与 CUDA 主版本匹配(如 CUDA 12.2 对应 cuDNN 8.9.x/8.10.x),不可跨主版本(如不能用 CUDA 11.x 的 cuDNN)。
- 更新方法:未来需更新 cuDNN 时,只需下载新版本的 deb 包,重复步骤 3 即可(会自动覆盖旧版本)。
- 手动安装(tar 包方式):若偏好手动安装,可下载
tar.xz包,解压后将文件复制到 CUDA 目录(/usr/local/cuda-12.2/),具体可参考 NVIDIA 官方文档。
完成后,你的系统将具备完整的 GPU 加速深度学习环境(CUDA 12.2 + cuDNN 8.9.7),可直接用于 PyTorch、TensorFlow 等框架的安装和运行。
验证与性能测试
1. 基础验证
# 检查cuDNN版本
python -c "import torch; print(torch.backends.cudnn.version())" # 应输出8907(即8.9.7)
# 检查多卡可见性
python -c "import torch; print(torch.cuda.device_count())" # 应输出2
2. 性能基准测试
使用 NVIDIA 提供的cudnn-benchmark工具:
# 编译工具(需安装libcudnn8-dev)
git clone https://github.com/NVIDIA/cudnn-benchmark.git
cd cudnn-benchmark
make
# 测试双卡性能(以VGG16为例)
./cudnn-benchmark -b 32 -d 0,1 -f vgg16
Ubuntu22.04安装cuDNN8.9.7指南

5万+

被折叠的 条评论
为什么被折叠?



