问题:
CUDA error: out of memory
CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
原因:查看了内存是足的,估计是默认使用gpus 0 被占用了,换成别的GPU即可
解决:
在代码最前加上,(一定要在import torch之前,不然不会生效)
import os
os.environ["CUDA_VISIBLE_DEVICES"] = '1'
原理:
CUDA_VISIBLE_DEVICES限制一下使用的GPU。
比如有0,1,2,3号GPU,CUDA_VISIBLE_DEVICES=2,3,则当前进程的可见GPU只有物理上的2、3号GPU,此时它们的编号也对应变成了0、

最低0.47元/天 解锁文章
4008

被折叠的 条评论
为什么被折叠?



