这篇文章主要讲解英伟达驱动安装,以及cuda Toolkit安装教程,cudnn安装详细教程,以及如何检验安装环境生效。 话不多说,上干货!
目录
安装教程:
首先,一般购买带显卡的笔记本,或者电脑,一般都会预装英伟达显卡驱动,或者可以去对应电脑型号官网上下载适配的驱动。
cuda Toolkit安装,可以直接参考:CUDA Toolkit安装教程(Windows)-优快云博客
cuDnn安装,可直接参考:cuDNN安装教程(Windows)_windows安装cudnn-优快云博客
官网地址:CUDA Toolkit 12.8 Update 1 Downloads | NVIDIA Developer
验证安装
1. 验证 CUDA 驱动
在命令行工具(Windows 系统为命令提示符或 PowerShell,Linux 系统为终端 ,macOS 系统为终端)中输入以下命令:
bash
nvidia-smi
如果安装正确,该命令会显示 NVIDIA 显卡的相关信息,如驱动版本、CUDA 版本、GPU 的使用情况、温度、功耗等。若提示命令未找到,说明显卡驱动未正确安装或环境变量配置有问题。
2. 验证 CUDA Toolkit
同样在命令行工具中,输入以下命令:
bash
nvcc --version
若 CUDA Toolkit 安装正确,会输出 CUDA 编译器的版本信息。若提示nvcc不是内部或外部命令等错误,则表示 CUDA Toolkit 未成功安装或环境变量未配置好。
3. 验证 cuDNN
- Windows 系统:进入 CUDA 的安装目录(默认路径如
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\版本号),分别进入include和lib文件夹,查看是否存在以cudnn开头的文件,如cudnn.h和cudnn.lib等。也可以运行 CUDA 安装目录下extra\demo_suite文件夹中的deviceQuery.exe和bandwidthTest.exe文件 ,在命令行中进入该文件夹目录,然后依次执行以下命令:
bash
.\deviceQuery.exe
.\bandwidthTest.exe
若两个程序的输出结果中都出现Result = PASS,则说明 cuDNN 安装和配置正确。
- Linux 系统:进入 CUDA 的安装目录(默认路径如
/usr/local/cuda),在终端中执行以下命令查看是否有 cudnn 相关文件:
bash
ls /usr/local/cuda/include | grep cudnn
ls /usr/local/cuda/lib64 | grep cudnn
另外,还可以通过运行官方提供的示例来验证,先下载 cuDNN 示例代码,解压后进入示例目录,编译并运行示例程序。例如:
bash
cd cudnn_samples_vX # X为版本号
make clean && make
./mnistCUDNN
如果运行结果显示Test passed!,则表示 cuDNN 安装正确。
调用使用
通常需要借助支持 CUDA 的深度学习框架或计算库来调用它们,以下是一些常见的情况:
1. 使用深度学习框架
- TensorFlow:安装支持 GPU 的 TensorFlow 版本,命令为
pip install tensorflow-gpu。在 Python 代码中,可以通过以下方式检查是否能识别 GPU 并调用:
python
import tensorflow as tf
print(tf.config.list_physical_devices('GPU'))
# 后续进行模型构建和训练时,TensorFlow会自动将计算任务分配到GPU上,也可以显式指定设备
with tf.device('/GPU:0'):
# 构建和训练模型的代码
pass
- PyTorch:安装命令为
pip install torch torchvision torchaudio。使用以下代码检查是否能使用 GPU:
python
import torch
print(torch.cuda.is_available())
# 在代码中设置设备为GPU
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# 创建张量和模型并移动到GPU上进行计算
x = torch.randn(3, 3).to(device)
model = YourModel().to(device)
2. 使用 CuPy 库
CuPy 是一个与 NumPy 兼容的库,专门用于 GPU 计算。安装命令为pip install cupy。使用时,CuPy 会自动将数据传输到 GPU,并在 GPU 上完成计算,示例代码如下:
python
import cupy as cp
# 创建CuPy数组
a = cp.array([1, 2, 3])
b = cp.array([4, 5, 6])
# 执行计算
c = a + b
print(c)
3. 使用 Java 调用(通过 JCuda 库)
对于 Java 开发者,可以使用 JCuda 库来调用 GPU 算力。首先需要在项目中引入 JCuda 库的依赖,然后在代码中使用如JCublas.cublasSgemm等 API 来执行矩阵乘法等操作 ,示例如下:
java
import jcuda.*;
import jcuda.jcublas.*;
public class CudaExample {
public static void main(String[] args) {
// 初始化CUDA和CUBLAS
cuInit(0);
JCublasHandle handle = new JCublasHandle();
jcublasCreate(handle);
// 后续编写矩阵运算等相关代码
// 释放资源
jcublasDestroy(handle);
cuExit(0);
}
}
如果安装完成,并且完成验证没问题,并且通过代码测试,能够调回就带代表安装成功了!

5174

被折叠的 条评论
为什么被折叠?



