cuda、cudnn、pytorch、tensorflow安装

1.安装显卡驱动

去官网下载相应的驱动,安装
或者最简单的方式
在这里插入图片描述
在software&updates下选择相应的驱动安装

查看gpu信息

nvidia-smi

cat /proc/driver/nvidia/version

2.安装cuda

下载以前版本的cuda网址:https://developer.nvidia.com/cuda-toolkit-archive
版本对照表:
在这里插入图片描述
更多版本见:https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html#id5
从文件名也可以看出,比如cuda_11.0.2_450.51.05_linux表示cuda版本为11.0.2,最低驱动版本为450.51.05,适用linux。

wget http://developer.download.nvidia.com/compute/cuda/11.0.2/local_installers/cuda_11.0.2_450.51.05_linux.run

可能存在的问题
在这里插入图片描述
如图,下载完成了突然报错 s段错误 (核心已转储),原因:stack size 太小
使用ulimit -a命令查看内容,使用ulimit -s 102400将stack size 改为100m,问题解决
在这里插入图片描述
在终端cd到指定文件夹,再执行以上命令可以将安装包保存到该文件夹下,再输入

 sudo sh cuda_11.0.2_450.51.05_linux.run

注意核对cuda版本号

下载过程比较慢,还经常断线,断了还要从头下载
(有人说复制网址用迅雷下载速度会快些,我并没有成功)

安装过程中注意不安装驱动
在这里插入图片描述

查看cuda版本

方法1

cat /usr/local/cuda/version.txt

方法2

有时用

nvcc -v

也可。
但是有时会显示
在这里插入图片描述
如果按照指示安装的话,可以成功安装并可通过nvcc -v查到信息,但是安装的版本会比想要的版本号低,以后说不定会出什么问题,所以又执行以下语句卸载

sudo apt-get autoremove nvidia-cuda-toolkit

3.安装cudnn

cudnn下载网站:https://developer.nvidia.com/rdp/cudnn-archive
直接下载很多次因为网络连接问题没有成功
最后用conda+清华源安装

conda install cudnn=7.6.5 -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/linux-64/

注意核对cudnn版本号

有时候有奇奇怪怪的报错,或网速太慢,下载容易中断。可以直接访问清华源网址,将包下载到本地,然后执行如下命令安装

conda install (--use-local)  cudnn-7.6.5-cuda10.2_0.tar.bz2

亲测同样有效

查看cudnn版本

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2 

如下所示,版本号为7.1.2

#define CUDNN_MAJOR 7
#define CUDNN_MINOR 1
#define CUDNN_PATCHLEVEL 2
--
#define CUDNN_VERSION    (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)

#include "driver_types.h"

(在conda环境中用conda list查看到的版本号可能和以上不同,可看做以上是公共的,conda中是私有的)

4.安装pytorch

(conda环境安装pytorch可以不用安装cuda和cudnn,装pytorch时会一并处理好,非常人性化,一条命令全搞定)
网址:https://pytorch.org/get-started/locally/
在这里插入图片描述
ubuntu20.04安装会报错,提示找不到相应版本
把版本号后面的+cu110通通去掉,成功
(有人说pip改成pip3也可成功)

pytorch安装实例:

pip install torch==1.7.1 torchvision==0.8.2 torchaudio===0.7.2 -i https://pypi.tuna.tsinghua.edu.cn/simple

相应的版本去pytorch官网找,官网给的网址通通换成清华源

以前版本网址
https://pytorch.org/get-started/previous-versions/

1.1.0版本(cuda9.0,cudnn7)成功安装实例

pip install torch==1.1.0 torchvision==0.3.0 -f https://download.pytorch.org/whl/torch_stable.html

5.tensorflow安装

tensorflow版本对照的linux网址:https://tensorflow.google.cn/install/source

(windows)https://tensorflow.google.cn/install/source_windows
在这里插入图片描述
python3.6+cuda9支持的tensorflow版本在1.5.0-1.12.0这几个

cpu版本

pip install –upgrade tensorflow-1.12.0-cp36-cp36m-linux_x86_64.whl –user

GPU版本

pip install tensorflow-gpu==1.7.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

6.虚拟环境下安装cuda、cudnn、tensorflow

不同的项目可能用到不同版本的tensorflow,不同版本的tensorflow又需要不同版本的cuda和cudnn,所以考虑在虚拟环境中安装这些。以下步骤有些在前面已经详细说明,下面就总结一下。

创建虚拟环境

conda create -n XXX(环境名) python=3.6 anaconda

进入环境:

source activate XXX
or
conda  activate XXX

退出环境

source deactivate 
or
conda  deactivate 

对虚拟环境中安装额外的包:

conda install -n XXX [package]

或者进入环境中再用以下命令安装(我比较喜欢这种):

conda install [package]
or
pip install [package]

安装cuda

conda install cudatoolkit=9.0 -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/linux-64/

cudatoolkit=版本号

安装cudnn

conda install cudnn=7.0.5 -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/linux-64/

安装tensorflow

pip install tensorflow-gpu==1.7.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

查询当前环境下的库的版本号:

conda list cudnn
conda list cuda
conda list tensorflow

如果上述conda的清华源URL失效,可尝试换成

https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
<think>好的,我现在需要回答用户关于如何在Windows下通过命令检查CUDAcuDNNPyTorchTensorFlow版本,以及验证PyTorchTensorFlow是否支持GPU加速的问题。同时,用户还希望得到简单的测试程序。我要确保回答结构清晰,步骤明确,并且提供准确的信息。 首先,对于检查CUDA版本,用户可能已经知道CUDA是NVIDIA的并行计算平台,通常安装后会提供命令行工具。常见的检查方法是通过nvcc --version命令。不过,有时候用户可能没有将nvcc添加到系统路径中,导致命令不可用。因此,我应该提醒用户如果出现错误,可能需要检查CUDA安装路径或者使用替代方法,比如查看系统环境变量中的CUDA_PATH,或者查看NVIDIA控制面板中的系统信息。 接下来是cuDNN的检查。cuDNN的版本通常存储在安装目录下的头文件或文档中。对于Windows用户,cuDNN的文件通常位于CUDA安装路径内,比如C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\include\cudnn_version.h。用户需要打开这个文件并查找版本号。这里需要注意,不同CUDA版本的安装路径可能不同,需要用户根据实际情况调整路径。同时,用户可能需要使用文本编辑器查看文件,所以需要给出具体的步骤。 然后是PyTorch版本的检查,这可以通过Python的交互式命令行执行import torch和torch.__version__来实现。同时,检查PyTorch是否支持GPU加速,可以通过torch.cuda.is_available()返回的布尔值判断。如果返回True,则表示GPU支持已启用。此外,用户可能还想知道当前可用的GPU设备信息,比如torch.cuda.get_device_name(0)来获取第一个GPU的名称,这部分可以作为附加信息提供。 对于TensorFlow,同样需要导入库并查看版本,使用tf.__version__。检查GPU支持时,tf.test.is_gpu_available()在较新版本的TensorFlow中已经被弃用,推荐使用tf.config.list_physical_devices('GPU')来列出所有可用的GPU设备。如果返回的列表不为空,则表示TensorFlow可以使用GPU。此外,用户可能还需要安装正确版本的CUDAcuDNN以匹配他们的TensorFlow版本,因此可能需要提醒用户版本兼容性的问题。 关于测试程序,PyTorch的示例可以包括创建一个张量并将其移动到GPU上,然后执行简单的计算,比如矩阵乘法,并打印结果和设备信息。TensorFlow的测试程序可以类似,比如使用tf.config.list_physical_devices('GPU')检查可用设备,然后创建一个张量并执行计算。需要确保示例代码简洁,用户可以直接复制运行,并看到明确的结果。 在整理这些步骤时,需要注意命令的正确性和兼容性。例如,在Windows下,用户可能需要使用命令提示符或PowerShell来执行这些命令,特别是Python相关的命令可能需要使用python或python3命令,具体取决于用户的Python环境配置。此外,用户安装PyTorchTensorFlow版本不同,可能会有不同的输出格式,需要确保示例代码具有通用性。 另外,用户可能遇到的问题包括CUDAcuDNN版本不匹配导致的GPU不可用,或者驱动版本过旧。此时,可能需要提醒用户检查驱动版本,并参考官方文档的版本兼容性表格。但由于用户的问题主要是检查现有版本和GPU可用性,可能不需要深入讨论安装和兼容性问题,除非用户后续提问。 最后,需要将所有步骤分点说明,确保结构清晰,用户能够逐步跟随操作。同时,提供的测试程序需要简单易懂,用户可以直接运行并看到明确的结果,比如打印出True或GPU设备名称,以及计算后的张量值。这有助于用户确认他们的环境配置正确。</think>以下是Windows下检查CUDAcuDNNPyTorchTensorFlow版本及GPU支持的详细步骤: --- ### **一、检查CUDA版本** **方法1(推荐):** ```bash nvcc --version ``` 输出示例: ``` nvcc: NVIDIA (R) Cuda compiler driver Built on Wed_Nov_22_10:30:42_Pacific_Standard_Time_2023 Cuda compilation tools, release 12.3, V12.3.107 ``` **方法2(备用):** 如果`nvcc`未添加到环境变量: 1. 打开文件资源管理器,输入路径:`C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA` 2. 查看文件夹名称(如`v12.3`表示CUDA 12.3) --- ### **二、检查cuDNN版本** 1. 打开文件: `C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\vX.Y\include\cudnn_version.h` (替换`X.Y`为你的CUDA版本) 2. 查找以下三行: ```cpp #define CUDNN_MAJOR 8 #define CUDNN_MINOR 9 #define CUDNN_PATCHLEVEL 7 ``` 表示cuDNN版本为 **8.9.7** --- ### **三、检查PyTorch版本及GPU支持** 在Python命令行中执行: ```python import torch print("PyTorch版本:", torch.__version__) print("是否支持GPU:", torch.cuda.is_available()) print("GPU设备名称:", torch.cuda.get_device_name(0) if torch.cuda.is_available() else "无") ``` --- ### **四、检查TensorFlow版本及GPU支持** 在Python命令行中执行: ```python import tensorflow as tf print("TensorFlow版本:", tf.__version__) gpu_devices = tf.config.list_physical_devices('GPU') print("是否支持GPU:", "是" if gpu_devices else "否") if gpu_devices: print("GPU设备列表:", gpu_devices) ``` --- ### **五、GPU测试小程序** #### **PyTorch测试代码** ```python import torch if torch.cuda.is_available(): device = torch.device("cuda") x = torch.randn(3, 3).to(device) y = torch.randn(3, 3).to(device) z = x @ y # 矩阵乘法 print("PyTorch GPU计算结果:", z) print("计算设备:", x.device) else: print("PyTorch未检测到GPU") ``` #### **TensorFlow测试代码** ```python import tensorflow as tf if tf.config.list_physical_devices('GPU'): with tf.device('/GPU:0'): a = tf.constant([[1.0, 2.0], [3.0, 4.0]]) b = tf.constant([[5.0, 6.0], [7.0, 8.0]]) c = tf.matmul(a, b) print("TensorFlow GPU计算结果:\n", c.numpy()) else: print("TensorFlow未检测到GPU") ``` --- ### **常见问题排查** 1. **驱动兼容性**:确保安装CUDA版本与显卡驱动匹配([NVIDIA驱动兼容表](https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html))。 2. **版本对齐**:PyTorch/TensorFlow版本需与CUDAcuDNN版本严格匹配(参考[PyTorch官网](https://pytorch.org/get-started/locally/)和[TensorFlow官网](https://www.tensorflow.org/install/source_windows))。 3. **环境变量**:如果GPU未被识别,检查`CUDA_PATH`是否配置正确(默认路径:`C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\vX.Y`)。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值