关于Pytorch使用torchsummy中的summary函数出现tuple index out of range的报错

文章描述了在复现AttentionUnet代码时遇到的报错,具体是由于在torchsummary库中尝试获取输入形状时发生的元组索引溢出异常。提出了两种可能的解决方案:一是修改torchsummary.py文件,二是检查模型中Attention_block模块的参数传递。作者怀疑问题可能出在参数命名上,但未验证原因。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题

我在复现Attention Unet代码时,出现了如下报错信息:

File "/root/autodl-tmp/projects/UnetWithResNet/model/Attention_UNet.py", line 163, in <module>
    summary(model, (3, 512, 512))
  File "/root/miniconda3/lib/python3.8/site-packages/torchsummary/torchsummary.py", line 72, in summary
    model(*x)
  File "/root/miniconda3/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1110, in _call_impl
    return forward_call(*input, **kwargs)
  File "/root/autodl-tmp/projects/UnetWithResNet/model/Attention_UNet.py", line 134, in forward
python-BaseException
    attention1 = self.attention1(g=up1, x=down4)  # 512, 64, 64
  File "/root/miniconda3/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1131, in _call_impl
    hook_result = hook(self, input, result)
  File "/root/miniconda3/lib/python3.8/site-packages/torchsummary/torchsummary.py", line 19, in hook
    summary[m_key]["input_shape"] = list(input[0].size())
IndexError: tuple index out of range

报错信息显示代码在运行到

attention1 = self.attention1(g=up1, x=down4)  # 512, 64, 64

时,torchsummary.py文件的

summary[m_key]["input_shape"] = list(input[0].size())

出现了元组索引溢出异常。

解决方法

方法一

博主一元童鞋给出了一个解决方法,就是注释掉torchsummary.py文件的:

# summary[m_key]["input_shape"] = list(input[0].size())
# summary[m_key]["input_shape"][0] = batch_size

并加入:

if len(input) != 0:
    summary[m_key]["input_shape"] = list(input[0].size())
    summary[m_key]["input_shape"][0] = batch_size
else:
    summary[m_key]["input_shape"] = input

因为我是在远程服务器上跑的代码,直接修改torchsummary.py会很麻烦,所以该方法是否可以解决问题,我没有进行尝试。

方法二

观察我的代码:

attention1 = self.attention1(g=up1, x=down4)  # 512, 64, 64

这段代码的实现是:

self.attention1 = Attention_block(F_g=filters[3], F_l=filters[3], F_int=filters[2])

Attention_block类的实现是:

class Attention_block(nn.Module):
    """注意力机制"""

    def __init__(self, F_g, F_l, F_int):
        super(Attention_block, self).__init__()
        self.W_g = nn.Sequential(
            nn.Conv2d(F_g, F_int, kernel_size=1, stride=1, padding=0),
            nn.BatchNorm2d(F_int)
        )

        self.W_x = nn.Sequential(
            nn.Conv2d(F_l, F_int, kernel_size=1, stride=1, padding=0),
            nn.BatchNorm2d(F_int)
        )

        self.psi = nn.Sequential(  # psi是一个卷积层,用于将F_int通道的特征图转换为1通道的特征图
            nn.Conv2d(F_int, 1, kernel_size=1, stride=1, padding=0),
            nn.BatchNorm2d(1),
            nn.Sigmoid()
        )

        self.relu = nn.ReLU(inplace=True)

    def forward(self, g, x):
        g1 = self.W_g(g)  # 512, 32, 32 -> 256, 32, 32
        x1 = self.W_x(x)  # 512, 32, 32 -> 256, 32, 32
        psi = self.relu(g1 + x1)  # 256, 32, 32
        psi = self.psi(psi)  # 256, 32, 32 -> 1, 32, 32
        return x * psi  # 512, 32, 32

这有可能是调用self.attention1时,参数的传递出了问题,将其改为:

attention1 = self.attention1(up1, down4)  # 512, 64, 64

也就是将:

attention1 = self.attention1(g=up1, x=down4)  # 512, 64, 64

改为

attention1 = self.attention1(up1, down4)  # 512, 64, 64

up1down4应该是不需要指定参数名称的,只需按顺序传入即可。但是原因到底是不是这样,我没有进行深究。

参考

https://blog.youkuaiyun.com/onermb/article/details/116149599
https://github.com/LeeJunHyun/Image_Segmentation/issues/69

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Re:从零开始的代码生活

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值