报错定位到的位置是在:
self.bias = self.bias.cuda()
意为将把bias转到gpu上报错;
网上查询了很多问题都没解决,受到这篇博客的启发;pytorch 手动设置参数变量 并转到cuda上_XiaoPangJix1的博客-优快云博客
原因可能是:bias是torch.nn.Parameter(),转移到cuda上失败,提示此报错;
其实根本原因比较简单,就是在model定义的时候没有将model转移到cuda上,因此修改代码为如下即可:
a = torch.Tensor(1,1,256,256)
if torch.cuda.is_available():
a=a.cuda()
EE_Block = EdgeEnhanceREC().cuda() #实例化并转移到cuda
else:
EE_Block = EdgeEnhanceREC() #只进行实例化,保持tensor和model在同一个设备上就行
b = EE_Block(a)
print(b.shape) #不改变size,[1,1,256,256]->[1,1,256,256]
甚至可用改变原来代码中很多“if torch.cuda.is_available():”无用的判别;
大道至简,被这个简单的问题困扰了好几天。
文章讲述了在使用PyTorch时遇到将模型的bias转移至GPU失败的问题,原因是model本身未转移到CUDA。解决方案是确保在实例化模型时直接将其移到CUDA上,或者保证tensor和model在同一设备上。通过修改代码,可以消除不必要的CUDA可用性检查。
897

被折叠的 条评论
为什么被折叠?



