显卡、显卡驱动版本、cuda版本和Pytorch相互之间的依赖关系

本文介绍了如何根据显卡的驱动版本和计算力选择合适的CUDA版本,以及如何进一步匹配Pytorch。首先,通过cmd的nvidia-smi命令查看显卡驱动版本和计算力,例如显卡驱动版本516.59支持最高CUDA 11.7。一般来说,计算力7.5及以上的显卡可以选择CUDA 10.0以上版本。确定CUDA后,可在Pytorch官网找到对应版本。注意,选择时应确保CUDA、驱动版本和显卡计算力的兼容性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题


话不多说,本文主要就是探讨如何根据显卡和显卡驱动版本去选择相应的CUDA和Pytorch。

显卡


显卡驱动版本

打开cmd命令提示符,输入nvidia-smi然后按回车键:
在这里插入图片描述
需要关注两个地方:

  1. 显卡驱动版本:516.59
  2. 显卡支持最高的CUDA版本:11.7

显卡计算力

查询显卡计算力
在这里插入图片描述

CUDA


查询CUDA与显卡驱动版本对应关系
CUDA与显卡驱动版本对应关系:
在这里插入图片描述
CUDA与显卡计算力关系:
在这里插入图片描述
选择CUDA前,先要搞清楚显卡的驱动版本和显卡的计算力,显卡计算力和显卡驱动版本共同决定CUDA版本。
一般,显卡计算力在7.5以上的,就可以选择10.0以上的CUDA,然后再根据显卡的驱动版本选择具体的CUDA版本。

Pytorch


当确定了CUDA的版本后,就可以去到Pytorch官网选择对应的Pytorch版本。
在这里插入图片描述

备注:以上仅代表个人观点和建议,仅供参考,如有错误,欢迎指正。

### 安装软件 对于Ubuntu 24.04上的软件安装,通常可以通过包管理器`apt-get`来完成。为了确保系统的稳定性和安全性,在执行任何操作之前建议更新现有的软件列表并升级已安装的程序到最新版本。 ```bash sudo apt update && sudo apt upgrade -y ``` 之后可以根据需求通过命令行工具轻松地查找和安装所需的软件包[^2]。 ### NVIDIA 显卡驱动安装 针对NVIDIA显卡驱动的安装过程如下: - 需要先禁用系统默认加载的新版开源图形驱动nouveau。这一步骤可通过编辑模块黑名单配置文件实现:`sudo gedit /etc/modprobe.d/blacklist.conf` 并加入 `blacklist nouveau` 和 `options nouveau modeset=0` 来阻止其启动[^1]。 - 接着重启计算机使更改生效,并在进入操作系统前按住Shift键选择恢复模式下的根终端输入密码后运行以下指令停止X服务以便安全卸载旧驱动与安装新驱动: ```bash sudo service lightdm stop ``` - 访问[NVIDIA官方网站](https://www.nvidia.com/)下载适用于Linux平台的特定版本驱动程序,例如`NVIDIA-Linux-x86_64-xxx.xx.run`形式的二进制文件[^3]。将其放置于主目录下并通过赋予可执行权限来进行本地安装: ```bash cd ~/ sudo chmod +x NVIDIA-Linux-x86_64-*.run sudo ./NVIDIA-Linux-x86_64-*.run ``` 注意上述过程中可能遇到内核源码编译依赖项缺失的情况,此时应按照提示补充相应库支持后再试一次。 ### CUDA Toolkit 的设置 当成功部署好GPU硬件层面的支持以后就可以着手准备构建深度学习框架所必需的基础组件——CUDA toolkit了。官方推荐的方式是从[NVIDIA开发者专区](https://developer.nvidia.com/cuda-downloads)获取最新的发行版链接地址,依据个人电脑架构挑选合适的.deb (local) 类型镜像资源实施离线或在线方式的快速布局工作流程;另外一种方法则是利用APT仓库机制简化整个流程,只需简单几步就能达成目的: ```bash wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.0-1_all.deb sudo dpkg -i cuda-keyring_1.0-1_all.deb sudo apt-get update sudo apt-get -y install cuda ``` 这里假设目标主机的操作系统为基于Debian/Ubuntu系列衍生品之一,则以上步骤应当适用大多数场景。不过考虑到不同版本间可能存在细微差异,请务必参照产品手册中的指导说明调整实际使用的参数选项以获得最佳兼容效果。 ### cuDNN 库集成 有了前面打好的坚实基础之后再来处理cuDNN就显得轻而易举多了。同样前往[NVIDIA官网](https://developer.nvidia.com/rdp/cudnn-archive),登录账号领取密钥解锁访问权限从而能够顺利下载对应CUDA版本配套的压缩包。解压至指定路径(比如`/usr/local/cuda/include` 及 `/usr/local/cuda/lib64`),最后别忘了刷新环境变量使之立即生效即可。 ```bash tar -xzvf cudnn-linux-x86_64-*.*-cuda*.* sudo cp cuda/include/* /usr/local/cuda/include/ sudo cp cuda/lib64/* /usr/local/cuda/lib64/ export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH source ~/.bashrc ``` ### PyTorch 环境搭建 至此为止已经完成了绝大部分准备工作,剩下就是创建虚拟Python环境用于隔离项目之间的相互干扰问题以及后续维护便利性的考虑。借助Conda或者pip都可以方便快捷地搞定这件事儿,下面给出两种方案供参考选用: #### 使用 Conda 创建独立 Python 环境 ```bash conda create --name pytorch_env python=3.x conda activate pytorch_env conda install pytorch torchvision torchaudio cudatoolkit=x.x -c pytorch ``` #### 或者采用 pip 工具链 ```bash virtualenv venv_pytorch source venv_pytorch/bin/activate pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu*x* ``` 其中`x.x`代表具体的CUDA版本号,需匹配先前安装过的那套开发工具集版本;同理`cu*x*`也得保持一致才能发挥出应有的性能优势。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Kigha同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值