解决RuntimeError: CUDA error: CUBLAS_STATUS_EXECUTION_FAILED when calling `cubla...
跑实验遇到了这个问题,一开始查资料发现有人说是因为维度可能不同,但是经过检查,不存在这个问题。
另外也有解决方法是加一句代码
torch.backends.cudnn.enabled = False
,但是还没尝试,因为发现main.py文件和其他文件的CUDA device设置不同,更改一致后就没有问题了。
因此遇到这个问题也可以再check一下各个变量和model是否在同一个cuda device上。