第一天 初识CUDA和显卡(含代码)

本文介绍了GPU的基本概念,包括GPU、GPU驱动、架构和CUDA编程语言。CUDAToolkit包含编译器、库和工具,如nvcc、cudart和cublas。CUDA有runtimeAPI和driverAPI,两者不能混用,driverAPI提供更低层次的控制。文章还提供了初始化CUDA驱动和获取设备信息的代码示例。
部署运行你感兴趣的模型镜像

解释几个术语

  • 显卡GPU
  • 显卡驱动:驱动软件
  • GPU架构: 硬件的设计方式,例如是否有L1 or L2缓存
  • CUDA: 一种编程语言像C++, Python等,只不过它是专门用来操控GPU的
  • cudnn: 一个专门为深度学习计算设计的软件库,里面提供了很多专门的计算函数
  • CUDAToolkit:所谓的装cuda首先指的是它(后面会详解)
  • nvcc: CUDA的编译器,可以从CUDA Toolkit的/bin目录中获取,(类似于gcc就是c语言的编译器), cuda程序有两种代码,一种是运行在cpu上的host代码,一种是运行在gpu上的device代码,所以nvcc编译器要保证两部分代码能够编译成二进制文件在不同的机器上执行
  • LIBRARY_PATH:程序编译期间查找动态链接库时指定查找共享库的路径
  • LD_LIBRARY_PATH:程序加载运行期间查找动态链接库时指定除了系统默认路径之外的其他路径

GPU型号含义

  • GPU架构:Tesla(停止支持)、Fermi(停止支持)、Kepler、Maxwell、Pascal、Volte、Turning、Ample
  • 显卡系列:GeForce、Quadro、Tesla
  • GeForce显卡型号:G/GS、GT、GTS、GTX (G/GS<GT<GTS<GTX)

CUDAToolkit

  • Compiler: CUDA-C和CUDA-C++编译器NVCC位于bin/目录中。它建立在NVVM优化器之上,而NVVM优化器本身构建在LLVM编译器基础结构之上。因此开发人员可以使用nvm/目录下的Compiler SDK来直接针对NVVM进行开发
  • Tools: 提供一些像profiler,debuggers等工具,这些工具可以从bin/目录中获取
  • Libraries: 下面列出的部分科学库和实用程序库可以在lib/目录中使用,它们的接口在include/目录中可获取。
    • cudart: CUDA Runtime
    • cudadevrt: CUDA device runtime
    • cublas: BLAS (Basic Linear Algebra Subprograms,基础线性代数程序集)
    • cublas_device: BLAS kernel interface
  • CUDA Samples: 演示如何使用各种CUDA和library API的代码示例。如果要对它们进行修改,则必须将这些示例复制到另一个位置。
  • CUDA Driver: 运行CUDA应用程序需要系统至少有一个具有CUDA功能的GPU和与CUDA工具包兼容的驱动程序(向下兼容)

runtime和driver API

CUDA有两个主要的API:runtime(运行时) API和driver API, 这两个API都有对应的CUDA版本

用于支持driver API的必要文件(如libcuda.so)是由GPU driver installer安装的。nvidia-smi就属于这一类API

用于支持runtime API的必要文件(如libcudart.so以及nvcc)是由CUDA Toolkit installer安装的

注意:CUDA Toolkit Installer有时可能会集成了GPU driver Installer

nvcc是与CUDA Toolkit一起安装的CUDA compiler-driver tool,它只知道它自身构建时的CUDA runtime版本

注意:nvcc不知道安装了什么版本的GPU driver,甚至不知道是否安装了GPU driver

runtime和driver API在很多情况非常相似,也就是说用起来的效果是等价的

但不能混合使用这两个API,因为二者是互斥的

简单理解二者的区别就是

CUDA Driver与CUDA Runtime相比更偏底层,就意味着Driver API有着更灵活的控制,也伴随着更复杂的编程

CUDA driver需要做显式的初始化cuInit(0) 否则其他API都会返回CUDA_ERROR_NOT_INITIALIZED


代码示例

// CUDA驱动头文件cuda.h
#include <cuda.h>

#include <stdio.h> 
#include <string.h>
int main(){
    /* 
    	cuInit(int flags) flags目前必须给0;
        对于cuda的所有函数,必须先调用cuInit,否则其他API都会返回CUDA_ERROR_NOT_INITIALIZED
     */
    CUresult code=cuInit(0);  //CUresult:用于接收可能的错误代码
    if(code != CUresult::CUDA_SUCCESS){
        const char* err_message = nullptr;
        cuGetErrorString(code, &err_message);    // 获取错误代码的字符串描述
        // cuGetErrorName (code, &err_message);  // 也可以直接获取错误代码的字符串
        printf("Initialize failed. code = %d, message = %s\n", code, err_message);
        return -1;
    }
       
    int driver_version = 0;
    code = cuDriverGetVersion(&driver_version);  // 获取驱动版本
    printf("CUDA Driver version is %d\n", driver_version); // 若driver_version为11020指的是11.2

    // 测试获取当前设备信息
    char device_name[100]; // char 数组
    CUdevice device = 0;
    code = cuDeviceGetName(device_name, sizeof(device_name), device);  // 获取设备名称、型号, 数组名device_name当作指针
    printf("Device %d name is %s\n", device, device_name);
    return 0;
}

参考文献

  • https://zhuanlan.zhihu.com/p/91334380
  • https://developer.nvidia.com/cuda-toolkit-archive
  • https://docs.nvidia.com/cuda/archive/11.2.0/
  • https://docs.nvidia.com/cuda/archive/11.2.0/cuda-driver-api/group__CUDA__VERSION.html
  • https://docs.nvidia.com/cuda/archive/11.2.0/cuda-driver-api/group__CUDA__DEVICE.html

您可能感兴趣的与本文相关的镜像

PyTorch 2.9

PyTorch 2.9

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小鹏AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值