CUDA与cudatoolkit

CUDA Toolkit是NVIDIA的CUDA工具包,包含了CUDA的全部工具。

conda安装的cudatoolkit是CUDA的一个子包,包含了主要的二进制文件。

一般conda安装的pytorch tensorflow会直接调用conda环境中的包,而如果使用pip安装的tensorflow不会自动接入conda中的cudatoolkit,进而会报

ImportError: libcudart.so.8.0: cannot open shared object file: No such file or directory

之类的错误。这种时候要么在本地安装CUDA Toolkit,要么在conda中安装对应版本的cudatoolkit,后者需要手动把cudatoolkit的lib路径(在pkgs对应的目录里)加入到LD_LIBRARY_PATH这个环境变量中。

事实上cudatoolkit并不包含所有的CUDA Toolkit二进制文件,而是分布在了多个包里,比如cudnn cupy,如果有需要还需要进一步安装,并把对应的lib路径也加入到LD_LIBRARY_PATH。

不然可能会报

ImportError: libcudnn.5: cannot open shared object file: No such file or directory
Attempting to fetch value instead of handling error Failed precondition: could not dlopen DSO: libcupti.so.9.0; dlerror: libcupti.so.9.0: cannot open shared object file: No such file or directory

这类错误。

### PyTorchCUDA Toolkit的兼容性配置 #### 兼容性概述 为了确保PyTorch能够充分利用GPU加速计算,正确选择CUDA Toolkit版本至关重要。不同版本的PyTorch支持特定范围内的CUDA版本。通常建议使用最新稳定版的PyTorch来获得最佳性能支持。 对于CUDA 12.1 Update 1的支持情况,在官方发布的更新日志中提到此版本引入了一些新的特性改进[^1]。然而,并不是所有的深度学习框架立即适配最新的CUDA版本;因此,确认所使用的PyTorch版本是否已经完全测试并支持该CUDA版本非常重要。 #### 配置过程详解 ##### 下载合适的CUDA版本 当系统内不存在任何先前安装过的CUDA环境时,应当依据NVIDIA驱动程序的具体版本号挑选相匹配的CUDA版本进行安装。例如,针对NVIDIA驱动版本450.80.02而言,推荐安装的是CUDA 11.0.3 Update 1这一具体版本[^3]。 ##### 安装CuDNN库 完成CUDA的基础设置之后,还需要额外安装CuDNN库以进一步提升神经网络运算效率。通过一系列命令可以实现将指定路径下的头文件以及动态链接库复制到相应目录下,并赋予读取权限的操作: ```bash sudo cp cuda/include/cudnn* /usr/local/cuda-<version>/include/ sudo chmod a+r /usr/local/cuda-<version>/include/cudnn* sudo cp cuda/lib64/libcudnn* /usr/local/cuda-<version>/lib64/ sudo chmod a+r /usr/local/cuda-<version>/lib64/libcudnn* ``` 这里`<version>`应替换为实际安装的CUDA版本号,比如上述例子中的`10.2`或`11.0.3`[^2]。 ##### 验证安装结果 最后一步是验证CuDNN是否被正确安装。可以通过查看包含定义宏指令的头文件内容来进行简单判断。执行下面这条命令将会显示出当前系统的CuDNN版本信息: ```bash cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2 ``` 正常情况下会得到类似于这样的输出,表明已成功部署了对应的大、小版本号组合的CuDNN库[^4]: ```cpp #define CUDNN_MAJOR 7 #define CUDNN_MINOR 6 #define CUDNN_PATCHLEVEL 2 ``` #### 设置环境变量 为了让操作系统识别新安装好的CUDA工具包及其关联组件,可能需要调整一些环境变量。这一般涉及到编辑用户的shell配置文件(如`.bashrc`),加入类似以下两行的内容: ```bash export PATH=/usr/local/cuda/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH ``` 保存更改后重新加载配置文件使改动生效即可。 #### 测试PyTorch GPU功能 一切准备就绪后,可通过Python交互界面运行一小段代码片段快速检验PyTorch能否检测到可用的GPU设备: ```python import torch print(torch.cuda.is_available()) print(torch.version.cuda) ``` 如果返回的结果均为True,则说明整个配置流程顺利完成,现在可以在项目开发过程中享受来自GPU的强大算力加持了!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值