【AI总结】别再傻傻分不清!显卡、驱动、CUDA、cuDNN、nvcc、nvidia-smi、cuda toolkit、cuda driver......一张图带你全部搞懂

部署运行你感兴趣的模型镜像


别再傻傻分不清!显卡、驱动、CUDA、cuDNN、nvcc、nvidia-smi、cuda toolkit、cuda driver…一张图带你全部搞懂


一图总览

请添加图片描述

📌 一表总览

名词一句话速记
显卡物理 GPU 芯片,插在主板上的“计算卡”
显卡驱动让操作系统识别显卡并调度硬件的“操作系统级驱动”
CUDA Driver显卡驱动里自带的 libcuda.so / nvcuda.dll,用于 GPU 任务
CUDA Toolkit开发包:nvcc 编译器 + cuBLAS/cuDNN 等库 + 样例代码
cuDNNToolkit 里的一个子库,专门给深度学习算子做极致优化
nvccToolkit 里的 CUDA 编译器(类似 gcc,但面向 GPU)
nvidia-smi驱动自带的 命令行监控工具,看 GPU 温度/显存/进程
CUDA Runtime API程序运行时直接用的 高层 API(默认随框架自带)
CUDA Driver API低层 API,需要手动加载 libcuda.so,写驱动级代码用

🧩 1. 显卡 vs 显卡驱动

  • 显卡 = 硬件
    你花 5499 元买来的 RTX 4070 Super,核心代号 AD104,12 GB GDDR6X。

  • 显卡驱动 = 软件
    官网下载的 NVIDIA-Linux-x86_64-535.54.03.run 或 Windows 的 531.79-desktop-win10-win11-64bit-international-dch-whql.exe
    装完你就能在设备管理器看到 “NVIDIA GeForce RTX 4070”。


🧩 2. CUDA Driver:驱动里的“小模块”

驱动安装后会释放两个关键文件:

  • Linux:/usr/lib/x86_64-linux-gnu/libcuda.so.535.54.03
  • Windows:C:\Windows\System32\nvcuda.dll

只要驱动版本 ≥ 470.xx,就能跑 CUDA 11.4 程序;驱动 535.xx,向下兼容 CUDA 12.x/11.x/10.x。


🧩 3. CUDA Toolkit:开发者的瑞士军刀

官方离线包 cuda_12.4.0_550.54.15_linux.run 里包含:

目录作用
bin/nvcc.cu 编译成 GPU 可执行文件
lib64/libcublas.so矩阵乘法
lib64/libcudnn.so深度学习卷积、RNN
samples/官方 100+ 个 CUDA Demo

PyTorch/TensorFlow 的 pip wheel 已经自带了精简版 Toolkit,所以日常训练无需再装!


🧩 4. cuDNN:深度学习“外挂”

  • 本质:Toolkit 下的一个 动态库 文件(libcudnn.so.8)。
  • 功能:给卷积、池化、RNN、Attention 做 汇编级优化,速度比手撸 CUDA kernel 快 2~10×。
  • 安装:官网下压缩包 → 把 include/cudnn*.hlib/libcudnn* 拷进 /usr/local/cuda-12.4/

🧩 5. nvcc & nvidia-smi

工具所属典型用法
nvcc --versionToolkit查看编译器版本
nvidia-smi驱动实时监控 GPU 温度/显存/进程

示例输出:

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 535.54.03    Driver Version: 535.54.03    CUDA Version: 12.2   |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  RTX 4070 Super      Off | 00000000:01:00.0 Off |                  N/A |
|  0%   36C    P8    12W / 220W|   1345MiB / 12282MiB|      0%      Default |
+-----------------------------------------------------------------------------+

注意:这里的 CUDA Version: 12.2 只是 驱动能兼容的最高 Runtime 版本,不代表你装了 Toolkit 12.2。


🧩 6. Runtime API vs Driver API

维度Runtime APIDriver API
头文件cuda_runtime.hcuda.h
函数前缀cudaMalloc()cuMemAlloc()
库链接-lcudart(随框架自带)手动 -lcuda
使用场景99% 日常开发写底层框架、多 GPU Context 管理
版本兼容由 PyTorch/TF 内部处理需自己检查驱动版本

🎯 一张思维导图

┌──────────────┐      ┌─────────────────┐
│   显卡硬件    │◄─────┤  显卡驱动 535    │
└────┬─────────┘      └──────┬──────────┘
     │                       │
┌────┴─────────┐      ┌──────┴──────────┐
│ CUDA Driver  │      │ nvidia-smi      │
└────┬─────────┘      └──────┬──────────┘
     │                       │
┌────┴──────────────┬────────┴──────────────┐
│    CUDA Toolkit 12.4                      │
│  ┌─────────────┐  ┌──────────────┐        │
│  │   nvcc      │  │   cuDNN 8.9  │        │
│  └─────────────┘  └──────────────┘        │
└────────────────────┬──────────────────────┘
                     │
         ┌───────────┴────────────┐
         │  PyTorch / TensorFlow  │
         └────────────────────────┘

✅ 5 秒自检清单

  1. 设备管理器能看到显卡 ✅
  2. nvidia-smi 能列出 GPU ✅
  3. torch.cuda.is_available() 返回 True ✅
    满足以上 3 步,你就已经拥有 显卡 + 驱动 + CUDA Driver,可以放心跑模型了!

如果帮到你,记得点赞、收藏、关注三连!评论区欢迎提问~

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

荔枝吻

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值