如何查看当前位置显存使用情况

博客介绍了在能使用CUDA的情况下,可通过包含头文件“cuda_runtime_api.h”,利用其API获取当前GPU显卡的总共显存容量、已使用显存容量和剩余显存容量。
部署运行你感兴趣的模型镜像

只要你能使用cuda,那么就可以直接使用头文件: #include "cuda_runtime_api.h"

以下代码通过该api返回了当前显卡的总共的显存容量、已使用显存容量、剩余显存容量

#include <iostream>
#include "cuda_runtime_api.h"

static void GetGPUMemory()
{
    int deviceCount = 0;
    cudaError_t error_id = cudaGetDeviceCount(&deviceCount);
    if (deviceCount == 0)
    {
        std::cout << "当前PC没有支持CUDA的显卡硬件设备" << std::endl;
    }

    size_t gpu_total_size;
    size_t gpu_free_size;

    cudaError_t cuda_status = cudaMemGetInfo(&gpu_free_size, &gpu_total_size);

    if (cudaSuccess != cuda_status) 
    {
        std::cout << "Error: cudaMemGetInfo fails : " << cudaGetErrorString(cuda_status) << std::endl;
        exit(1);
    }

    double total_memory = double(gpu_total_size) / (1024.0 * 1024.0);
    double free_memory = double(gpu_free_size) / (1024.0 * 1024.0);
    double used_memory = total_memory - free_memory;

    std::cout << "\n"
        << "当前显卡总共有显存" << total_memory << "m \n"
        << "已使用显存" << used_memory << "m \n"
        << "剩余显存" << free_memory << "m \n" << std::endl;

}


int main()
{
    GetGPUMemory();
    return 0;
}

输出:

 

ref : C++ - C++使用cuda api获取当前GPU显卡的总共的显存容量、已使用显存容量、剩余显存容量 - StubbornHuang Blog

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值