如何调用GPU训练模型【详细教程1】——CUDA和cuDNN的安装

目录

一、前言

二、安装CUDA、cuDNN和PyTorch

CUDA的安装

cuDNN的安装

三、验证是否安装成功


一、前言

在进行深度学习模型训练时,可以使用CPU训练,但通常比较慢,也可以采用GPU进行加速训练,从而缩短训练时间。

目前支持深度学习的显卡只有NIVDIA,AMD是不支持的,因此AMD显卡的用户不用再纠结于CUDA的安装了,直接安装CPU版本的PyTorch就好了。

要使用GPU进行加速训练,要安装三个东西:CUDA、cuDNN、PyTorch。PyTorch大家都知道,是一个用于深度学习的开源库,当然这里用Tensorflow也可以,看个人喜好。

而CUDA和cuDNN可能一开始会分不清,通俗的说,CUDA是一个工具库,具有强大的计算能力;而cuDNN是一个该工具库的配置,使得模型可以被工具库理解,从而调用工具库进行计算。

即使是NVIDIA显卡,也要确定你的GPU(显卡)是否支持CUDA,有两种查看方式:

  1. 进入Nvidia控制面板(NVIDIA Control Pannel),帮助 -> 系统信息(I) -> 组件 -> 3D设置 -> 组件中的NVCUDA64.DLL对应的就是CUDA版本,如下图所示:
    CUDA版本
  2.  第二种方法适用于之前装过CUDA,想要确定版本的。进入命令行(cmd),执行以下指令,可以显示本机CUDA驱动的版本
nvcc -V

注意:用命令行查看CUDA版本,还有另外一种命令:nvidia-smi ,两种执行后结果可能不同,是因为nvidia-smi显示的是安装显卡驱动是顺带安装的CUDA版本,而nvcc -V显示的是通过CUDA Toolkit安装的CUDA,对于使用GPU训练DL模型,我们以nvcc -V显示的为准。


二、安装CUDA、cuDNN和PyTorch

因为CUDA和cuDNN都要迁就PyTorch(bushi),所以先打开PyTorch的安装网站:PyTorch

PyTorch安装页
PyTorch安装页

按上图选择后,在Compute Platform这栏可以看到PyTorch官网目前只支持CUDA11.7和11.8,而我本机目前是CUDA12.0,因此需要降级。如果没有安装的,就安11.7或11.8

注:PyTorch可以向下兼容CUDA,即PyTorch版本可以高,但CUDA版本不能高

Windows安装 CUDA ,首先需要下载两个安装包

CUDA的安装

要注意进入官网默认是下载最新版本(12.1),要选择之前的版本(Archive of Previous CUDA Releases):

CUDA下载页1

 我这里选择安装11.8.0版本:

CUDA下载页2

        选择自己的系统版本和安装方式,安装方式"local"和"network",分别为3.0GB和29MB,个人的理解一个是完整安装包,一个是简易安装包、使用时再预下载,这里选择local安装方式,下载完成后一路next安装即可,安装结束后进入环境变量,有如下变量即为成功(安装地址是我自定义的):

CUDA环境变量

如果在安装CUDA的时候没有选择路径,且选择了简易安装,则默认路径为以下:

C:\Program Files\NVIDIA GPU Computing Toolkit

如果出现上述的环境变量,说明安装CUDA成功,此时进入命令行(cmd),执行指令 nvcc -V,可以看到cuda版本: 

查看本机CUDA版本

cuDNN的安装

第一步完成,接下来是cuDNN的安装,https://developer.nvidia.com/rdp/cudnn-download,这里下载cuDNN需要注册一个Nvidia的账号,可能需要科学上网,之后就是选择刚刚安装的CUDA版本对应的cuDNN

注意:CUDA和cuDNN版本一定要对应,不存在互相上下兼容等,一定要对应!

cuDNN下载页

        刚刚CUDA版本为11.8,因此cuDNN选择“for CUDA 11.x",cuDNN的安装方式为压缩包,直接解压即可,解压后得到以下内容:

cuDNN解压目录​

        CUDA可以看作是工具,而cuDNN是工具的配置,因此要将cuDNN文件夹内的bin+include+lib这三个文件夹拷贝进CUDA刚刚的安装目录下,默认的安装目录是C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8,我是在F盘的CUDA文件夹,具体取决你安装的位置。

拷贝完成后,CUDA和cuDNN 安装都已经完成,接下来进行测试,看是否安装成功。


三、验证是否安装成功

打开命令行界面,cd进入到安装CUDA的目录下,再进入\extras\demo_suite目录内,分别执行该目录下的两个应用(bandwidthTest.exe、deviceQuery.exe)来测试是否安装成功:

bandwidthTest.exe运行结果

deviceQuery.exe运行结果

        两个exe执行后都如上所示,Reulst = Pass,代表CUDA和cuDNN都安装成功,下篇文章将会介绍PyTorch的安装以及常见的问题解决

        希望能对你有所帮助!

### 关于在AMD平台上安装配置CUDAcuDNN 遗憾的是,官方并不支持在基于AMD GPU的平台上直接安装CUDA工具包[^1]。 CUDA是由NVIDIA开发的技术栈,专为NVIDIA自家生产的GPU提供加速计算功能的支持。因此,在当前技术条件下,无法通过标准流程在配备有AMD图形处理单元(GPUs)的计算机上部署原生版的CUDA以及依赖其工作的库如cuDNN。 对于希望利用非NVIDIA硬件开展深度学习或其他高性能运算任务的研究人员来说,可以选择如下替代方案: #### 使用ROCm作为CUDA的替代品 AMD提供了自己的异构计算平台——Radeon Open Compute (ROCm),旨在让开发者能够编写可以在AMD设备上高效执行的应用程序。该框架兼容多种流行的机器学习框架,并且拥有类似于CUDA的功能集。为了实现与TensorFlow或PyTorch等主流AI框架的良好集成,用户应当按照官方文档指导完成相应设置过程[^2]。 ```bash # 安装ROCM的前提条件之一可能是更新系统的内核版本到受支持范围内的最新稳定发行版。 sudo apt update && sudo apt upgrade -y ``` #### 配置适用于AMD GPU深度学习环境 当选择了ROCm之后,则需进一步调整所使用深度学习模型训练环境来匹配这一新架构。这通常涉及到修改原有项目中的编译选项、路径变量以及其他可能影响性能表现的因素。具体操作步骤会依据个人需求而有所不同,但一般都会遵循以下原则: - 对源码做出必要的改动以便充分利用底层硬件特性;
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值