使用openpose出现Check failed: error == cudaSuccess (2 vs. 0) out of memory错误

博客讲述使用OpenPose的docker执行命令时出错,起初认为是CUDA和CUDNN版本不匹配,更新CUDNN版本后仍报错。后发现是GPU数量太少导致内存不足,使用OpenPose的docker至少要4块GPU且从编号0开始,也可自行重装OpenPose。
PyTorch 2.9

PyTorch 2.9

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

在使用openpose的docker执行命令时,出现下述错误提示

root@1015281c1858:/openpose# python3 consecutive_openpose.py 
Starting OpenPose demo...
Configuring OpenPose...
Starting thread(s)...
F1117 06:45:27.081745    90 syncedmem.cpp:71] Check failed: error == cudaSuccess (2 vs. 0)  out of memory
*** Check failure stack trace: ***
    @     0x7f36e3efb5cd  google::LogMessage::Fail()
    @     0x7f36e3efd433  google::LogMessage::SendToLog()
    @     0x7f36e3efb15b  google::LogMessage::Flush()
    @     0x7f36e3efde1e  google::LogMessageFatal::~LogMessageFatal()
    @     0x7f36e34f41b8  caffe::SyncedMemory::mutable_gpu_data()
    @     0x7f36e34f63c2  caffe::Blob<>::mutable_gpu_data()
    @     0x7f36e35337fd  caffe::ConcatLayer<>::Forward_gpu()
    @     0x7f36e34e1bd1  caffe::Net<>::ForwardFromTo()
    @     0x7f36e5437830  op::NetCaffe::forwardPass()
    @     0x7f36e5465297  op::HandExtractorCaffe::detectHandKeypoints()
    @     0x7f36e5466b96  op::HandExtractorCaffe::forwardPass()
    @     0x7f36e54606c9  op::WHandExtractorNet<>::work()
    @     0x7f36e5450769  op::Worker<>::checkAndWork()
    @     0x7f36e545090b  op::SubThread<>::workTWorkers()
    @     0x7f36e54593db  op::SubThreadQueueInOut<>::work()
    @     0x7f36e54536bb  op::Thread<>::threadFunction()
    @     0x7f36e4de0c80  (unknown)
    @     0x7f36e45326ba  start_thread
    @     0x7f36e484f41d  clone
    @              (nil)  (unknown)
Aborted (core dumped)

在openpose的github上找到类似的错误,其中是说CUDA和CUDNN版本不匹配

实验环境用的CUDA版本是10.0,CUDNN版本是7.3

将CUDNN更新到7.6.5和7.5.1之后还是报同样的错误

 

后来发现是由于使用的GPU数量太少导致的,而且我的错误提示是out of memory,而github上的错误提示是CUDNN_STATUS_NOT_INITIALIZED,说明不是同一个错误

实验室的管理员也说CUDNN高版本是向下兼容的,使用高版本还是出错的话就不是CUDNN的问题了

使用openpose的docker时至少要使用4块GPU,否则就会提示内存不足,而且还要从编号0开始才不容易出错(好像是内部已经设置好了必须从0开始,要想好用一点还是自己重新装一个OpenPose,而不是用docker)。

 

您可能感兴趣的与本文相关的镜像

PyTorch 2.9

PyTorch 2.9

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

<think>嗯,用户遇到了CUDA的断言错误,具体是check_error: Assertion `0' failed。首先,我需要分析可能的原因。根据引用[2]和[3],这通常和显存不足有关。比如训练YOLOv3时batch size太大,或者模型参数没调好,导致显存不够用。这时候应该考虑减小batch size或者subdivisions,或者在配置文件中调整参数,如引用[4]提到的,修改测试和训练的参数设置。 另外,用户可能没有正确配置GPU架构。引用[3]提到需要修改Makefile中的ARCH参数,对应自己的GPU型号。比如GTX 1060对应的是compute_61,sm_61,如果设置错了可能会导致问题。 还有可能是代码本身的bug或者环境问题。比如CUDA驱动或cuDNN版本不兼容,这时候需要检查版本匹配。或者代码中存在未处理的错误,比如内存分配失败,这时候需要添加错误检查,如引用[5]提到的Assert函数使用。 用户需要逐步排查:首先检查显存使用情况,调整配置;然后确认GPU架构设置是否正确;接着检查代码中的错误处理;最后验证环境配置。如果所有步骤都做了还是有问题,可能需要进一步调试或寻求社区帮助。</think>### CUDA断言错误`check_error: Assertion '0' failed`解决方案 #### 1. **显存不足问题(最常见原因)** - **现象**:训练深度学习模型(如YOLOv3)时出现`CUDA Error: out of memory`[^2][^3] - **解决方案**: - **减小批次大小**:修改`.cfg`文件中的`batch`和`subdivisions`参数,例如将`batch=64`改为`batch=32`,并减少`subdivisions`值[^4] - **释放占用显存的进程**:使用`nvidia-smi`命令查看显存占用,终止无关进程 - **测试模式验证**:将配置文件切换为测试模式(`batch=1, subdivisions=1`),确认是否配置错误 #### 2. **GPU架构配置错误** - **现象**:编译阶段出现断言失败,尤其是使用自定义GPU时 - **解决方案**: - 修改`Makefile`中的`ARCH`参数,例如: ```makefile ARCH= -gencode arch=compute_61,code=sm_61 # GTX 1060对应此配置 ``` - 查询GPU算力表(NVIDIA官网),匹配`compute_XX`和`sm_XX` #### 3. **代码逻辑错误** - **现象**:内存越界、空指针等编程错误引发断言 - **解决方案**: - 添加CUDA错误检查宏: ```c #define checkCudaErrors(call) { \ const cudaError_t error = call; \ if (error != cudaSuccess) { \ printf("Error: %s:%d, ", __FILE__, __LINE__); \ printf("code:%d, reason: %s\n", error, cudaGetErrorString(error)); \ exit(1); \ } \ } ``` - 使用`cuda-memcheck`工具检测内存错误[^5] #### 4. **环境配置问题** - **验证步骤**: - 检查CUDA与GPU驱动兼容性(`nvidia-smi`顶部显示的最高支持CUDA版本) - 确认cuDNN版本与CUDA版本匹配 - 重编译代码:`make clean && make`
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值