关于安装NVIDIA驱动,cuda Toolkit,cudnn教程,以及如何验证是否正确安装!

该文章已生成可运行项目,

这篇文章主要讲解英伟达驱动安装,以及cuda Toolkit安装教程,cudnn安装详细教程,以及如何检验安装环境生效。 话不多说,上干货!

目录

安装教程:

验证安装

1. 验证 CUDA 驱动

2. 验证 CUDA Toolkit

3. 验证 cuDNN

调用使用

1. 使用深度学习框架

2. 使用 CuPy 库

3. 使用 Java 调用(通过 JCuda 库)


安装教程:

首先,一般购买带显卡的笔记本,或者电脑,一般都会预装英伟达显卡驱动,或者可以去对应电脑型号官网上下载适配的驱动。

cuda Toolkit安装,可以直接参考:CUDA Toolkit安装教程(Windows)-优快云博客

cuDnn安装,可直接参考:cuDNN安装教程(Windows)_windows安装cudnn-优快云博客

官网地址:CUDA Toolkit 12.8 Update 1 Downloads | NVIDIA Developer

验证安装

1. 验证 CUDA 驱动

在命令行工具(Windows 系统为命令提示符或 PowerShell,Linux 系统为终端 ,macOS 系统为终端)中输入以下命令:

bash

nvidia-smi

如果安装正确,该命令会显示 NVIDIA 显卡的相关信息,如驱动版本、CUDA 版本、GPU 的使用情况、温度、功耗等。若提示命令未找到,说明显卡驱动未正确安装或环境变量配置有问题。

2. 验证 CUDA Toolkit

同样在命令行工具中,输入以下命令:

bash

nvcc --version

若 CUDA Toolkit 安装正确,会输出 CUDA 编译器的版本信息。若提示nvcc不是内部或外部命令等错误,则表示 CUDA Toolkit 未成功安装或环境变量未配置好。

3. 验证 cuDNN
  • Windows 系统:进入 CUDA 的安装目录(默认路径如C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\版本号 ),分别进入includelib文件夹,查看是否存在以cudnn开头的文件,如cudnn.hcudnn.lib等。也可以运行 CUDA 安装目录下extra\demo_suite文件夹中的deviceQuery.exebandwidthTest.exe文件 ,在命令行中进入该文件夹目录,然后依次执行以下命令:

bash

.\deviceQuery.exe
.\bandwidthTest.exe

若两个程序的输出结果中都出现Result = PASS,则说明 cuDNN 安装和配置正确。

  • Linux 系统:进入 CUDA 的安装目录(默认路径如/usr/local/cuda ),在终端中执行以下命令查看是否有 cudnn 相关文件:

bash

ls /usr/local/cuda/include | grep cudnn
ls /usr/local/cuda/lib64 | grep cudnn

另外,还可以通过运行官方提供的示例来验证,先下载 cuDNN 示例代码,解压后进入示例目录,编译并运行示例程序。例如:

bash

cd cudnn_samples_vX  # X为版本号
make clean && make
./mnistCUDNN

如果运行结果显示Test passed!,则表示 cuDNN 安装正确。

调用使用

通常需要借助支持 CUDA 的深度学习框架或计算库来调用它们,以下是一些常见的情况:

1. 使用深度学习框架
  • TensorFlow:安装支持 GPU 的 TensorFlow 版本,命令为pip install tensorflow-gpu。在 Python 代码中,可以通过以下方式检查是否能识别 GPU 并调用:

python

import tensorflow as tf
print(tf.config.list_physical_devices('GPU'))
# 后续进行模型构建和训练时,TensorFlow会自动将计算任务分配到GPU上,也可以显式指定设备
with tf.device('/GPU:0'):
    # 构建和训练模型的代码
    pass
  • PyTorch:安装命令为pip install torch torchvision torchaudio。使用以下代码检查是否能使用 GPU:

python

import torch
print(torch.cuda.is_available())
# 在代码中设置设备为GPU
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# 创建张量和模型并移动到GPU上进行计算
x = torch.randn(3, 3).to(device)
model = YourModel().to(device)
2. 使用 CuPy 库

CuPy 是一个与 NumPy 兼容的库,专门用于 GPU 计算。安装命令为pip install cupy。使用时,CuPy 会自动将数据传输到 GPU,并在 GPU 上完成计算,示例代码如下:

python

import cupy as cp
# 创建CuPy数组
a = cp.array([1, 2, 3])
b = cp.array([4, 5, 6])
# 执行计算
c = a + b
print(c)
3. 使用 Java 调用(通过 JCuda 库)

对于 Java 开发者,可以使用 JCuda 库来调用 GPU 算力。首先需要在项目中引入 JCuda 库的依赖,然后在代码中使用如JCublas.cublasSgemm等 API 来执行矩阵乘法等操作 ,示例如下:

java

import jcuda.*;
import jcuda.jcublas.*;

public class CudaExample {
    public static void main(String[] args) {
        // 初始化CUDA和CUBLAS
        cuInit(0);
        JCublasHandle handle = new JCublasHandle();
        jcublasCreate(handle);
        
        // 后续编写矩阵运算等相关代码
        
        // 释放资源
        jcublasDestroy(handle);
        cuExit(0);
    }
}

如果安装完成,并且完成验证没问题,并且通过代码测试,能够调回就带代表安装成功了!

本文章已经生成可运行项目
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Stuomasi_xiaoxin

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值