maskrcnn-benchmark 代码详解之 resnet.py

本文详细解析了maskrcnn-benchmark库中Resnet网络的结构,包括Resnet的基础结构、区块(block)结构,特别是Bottleneck和Stem区块的详细构建过程。此外,还介绍了Resnet总体结构的实现,包括不同类型的Resnet backbones及其封装。

1Resnet 结构

  Resnet 一般分为5个卷积(conv)层,每一层为一个stage。其中每一个stage中由不同数量的相同的block(区块)构成,这些区块的个数就是block_count, 第一个stage跟其他几个stage结构完全不同,也可以看做是由单独的区块构成的,因此由区块不停堆叠构成的第二层到第5层(即stage2-stage5或conv2-conv5),分别定义为index1-index4.就像搭积木一样,这四个层可有基本的区块搭成。下图为resnet的基本结构:

resnet structure
Resnet 的结构以及在代码中一些变量的描述

  以下代码通过控制区块的多少,搭建出不同的Resnet(包括Resnet50等):

# -----------------------------------------------------------------------------
# Standard ResNet models
# -----------------------------------------------------------------------------
# ResNet-50 (包括所有的阶段)
# ResNet 分为5个阶段,但是第一个阶段都相同,变化是从第二个阶段开始的,所以下面的index是从第二个阶段开始编号的。其中block_count为该阶段区块的个数
ResNet50StagesTo5 = tuple(
    StageSpec(index=i, block_count=c, return_features=r)
    for (i, c, r) in ((1, 3, False), (2, 4, False), (3, 6, False), (4, 3, True))
)
# ResNet-50 up to stage 4 (excludes stage 5)
ResNet50StagesTo4 = tuple(
    StageSpec(index=i, block_count=c, return_features=r)
    for (i, c, r) in ((1, 3, False), (2, 4, False), (3, 6, True))
)
# ResNet-101 (including all stages)
ResNet101StagesTo5 = tuple(
    StageSpec(index=i, block_count=c, return_features=r)
    for (i, c, r) in ((1, 3, False), (2, 4, False), (3, 23, False), (4, 3, True))
)
# ResNet-101 up to stage 4 (excludes stage 5)
ResNet101StagesTo4 = tuple(
    StageSpec(index=i, block_count=c, return_features=r)
    for (i, c, r) in ((1, 3, False), (2, 4, False), (3, 23, True))
)
# ResNet-50-FPN (including all stages)
ResNet50FPNStagesTo5 = tuple(
    StageSpec(index=i, block_count=c, return_features=r)
    for (i, c, r) in ((1, 3, True), (2, 4, True), (3, 6, True), (4, 3, True))
)
# ResNet-101-FPN (including all stages)
ResNet101FPNStagesTo5 = tuple(
    StageSpec(index=i, block_count=c, return_features=r)
    for (i, c, r) in ((1, 3, True), (2, 4, True), (3, 23, True), (4, 3, True))
)
# ResNet-152-FPN (including all stages)
ResNet152FPNStagesTo5 = tuple(
    StageSpec(index=i, block_count=c, return_features=r)
    for (i, c, r) in ((1, 3, True), (2, 8, True), (3, 36, True), (4, 3, True))
)

 根据以上的不同组合方案,maskrcnn benchmark可以搭建起不同的backbone:

def _make_stage(
    transformation_module,
    in_channels,
    bottleneck_channels,
    out_channels,
    block_count,
    num_groups,
    stride_in_1x1,
    first_stride,
    dilation=1,
    dcn_config={}
):
    blocks = []
    stride = first_stride
    # 根据不同的配置,构造不同的卷基层
    for _ in range(block_count):
        blocks.append(
            transformation_module(
                in_channels,
                bottleneck_channels,
                out_channels,
                num_groups,
                stride_in_1x1,
                stride,
                dilation=dilation,
                dcn_config=dcn_config
            )
        )
        stride = 1
        in_channels = out_channels
    return nn.Sequential(*blocks)

 

  这几种不同的backbone之后被集成为一个统一的对象以便于调用,其代码为:


                
<think>好的,我现在需要解决用户在编译maskrcnn-benchmark时遇到的CUDA错误,具体是nms.cu文件中的'name followed by :: must be a class or namespace name'错误。用户的环境是Torch 1.13.0和CUDA 11.6。我需要根据提供的引用信息和自己的知识来找出解决方案。 首先,用户提到引用了几个相关的解决方案。引用[1]指出高版本的torchvision可能导致类似问题,需要降级PyTorch和torchvision,并重新编译。引用[4]提到原代码可能基于旧版本的PyTorch,特别是pytorch-1.0 nightly,而新版本可能存在兼容性问题。此外,用户的环境是较新的Torch 1.13.0和CUDA 11.6,这可能与maskrcnn-benchmark代码不兼容,因为该库可能没有更新支持最新的PyTorch版本。 接下来,错误信息是关于'::'的使用,通常表示命名空间或类名的问题。在CUDA代码中,如果函数或类没有正确限定命名空间,可能会出现此错误。例如,如果代码中使用了某个类的成员而没有指定正确的命名空间,编译器就会报错。 可能的解决步骤包括: 1. 检查PyTorch和CUDA版本兼容性。maskrcnn-benchmark可能要求特定版本的PyTorch,比如1.0或1.2,而用户使用的是1.13.0。需要降级PyTorch和torchvision到兼容版本,如引用[1]和[4]提到的。例如,安装PyTorch 1.10.0和对应CUDA 11.3的工具包,或者按照引用[3]中的命令安装CUDA 10.0的版本。 2. 修改nms.cu文件中的代码,确认所有使用'::'的地方是否正确限定了命名空间。例如,检查是否有遗漏的命名空间,如at::或c10::,尤其是在调用PyTorch的API时。可能需要将某些函数调用加上正确的命名空间前缀。 3. 清除之前的编译缓存,如删除build文件夹,然后重新编译。引用[1]中提到删除build并重新编译可以解决问题。 4. 如果以上方法无效,可能需要参考社区的解决方案,如调整CUDA代码的语法,或者寻找已经适配新版本PyTorch的maskrcnn-benchmark分支。 另外,用户的环境是CUDA 11.6,而引用[2]和[3]提到了安装CUDA 11.3和10.0的情况,这可能意味着低版本的CUDA和PyTorch组合更稳定。因此,建议用户降级PyTorch和CUDA到兼容版本,例如PyTorch 1.10.0和CUDA 11.3,然后重新编译。 总结来说,解决方案可能涉及降级PyTorch/torchvision,修改CUDA代码中的命名空间问题,并清理编译环境。</think>### CUDA编译错误解决方案 #### 问题定位 该错误通常由CUDA代码语法与PyTorch版本不兼容引起,具体表现为`nms.cu`文件中`::`运算符的命名空间解析失败。新版本PyTorch(1.13)的API命名空间调整可能导致旧版maskrcnn-benchmark代码无法直接编译[^4]。 --- #### 分步解决方案 1. **降低PyTorch版本** 推荐使用**PyTorch 1.10.0 + CUDA 11.3**组合(已验证兼容性): ```bash conda install pytorch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0 cudatoolkit=11.3 -c pytorch ``` 若需其他版本可参考[PyTorch官方版本匹配表](https://pytorch.org/get-started/previous-versions/)[^2][^3]。 2. **修改CUDA代码适配新语法** 在`nms.cu`文件中添加缺失的命名空间限定符: ```cpp // 原代码可能为 Tensor nms_cuda(...) // 修改为(添加 at:: 命名空间) at::Tensor nms_cuda(...) ``` 类似问题可能出现在`boxes`、`scores`等张量类型声明处,需确保所有类型均通过`at::`限定。 3. **清理编译缓存** 删除项目中的`build/`文件夹和已生成的`*.so`文件: ```bash rm -rf build/ *.so ``` 4. **重新编译** 执行编译命令: ```bash python setup.py build develop ``` --- #### 验证示例 ```python # 验证PyTorch和CUDA版本 import torch print(torch.__version__) # 应输出 1.10.0 print(torch.version.cuda) # 应输出 11.3 ``` ---
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值