[轻量化语义分割] Rethinking BiSeNet For Real-time Semantic Segmentation(CVPR2021)

 

paper:https://openaccess.thecvf.com/content/CVPR2021/papers/Fan_Rethinking_BiSeNet_for_Real-Time_Semantic_Segmentation_CVPR_2021_paper.pdf

code:

https://github.com/MichaelFan01/STDC-Seg

 

目录

一. 动机

二. 贡献

三、相关工作

四、方法

1、编码网络

2、解码器

五、实验

1、消融实验

2、对比实验

一. 动机

        双流实时分割网络BiSeNet添加额外的路径来编码空间信息是耗时的,并且由于任务特定设计(task-specific design)的不足,从预训练任务(例如图像分类)中借用的主干网络可能对图像分割效率低下。

(a) BiSeNet 使用额外的Spatial Path来编码空间信息。                                                                  
(b) Ours 细节指导(Detail Guidance)模块在低级特征中编码空间信息,无需额外的耗时路径。

二. 贡献

1、设计了一个短时密集连接(Short-Term Dense Concatenate,STDC)模块来提取具有可扩展感受野和多尺度信息的深层特征。

2、提出了一个细节聚合(Detail Aggregation)模块来学习解码器,从而在低级层中更精确地保留空间细节。(Train only)

3、在Cityscapes测试集上,STDC1-Seg50取得71.9% mIoU,250.4 FPS;STDC2-Seg75取得76.8% mIoU,97.0 FPS。

三、相关工作

1、高效的网络设计: 降低模型参数(SqueezeNet),减少推理阶段 FLOPs(MobileNetV1),出色的性能(ResNet),降低计算成本同时保持可比的准确性(MobileNet V2、ShuffleNet )。

    专门为图像分类任务设计的,它们对语义分割应用程序的扩展应该仔细调整。

2、通用语义分割:传统分割算法(阈值选择、超像素)、深度学习算法(FCN、Deeplabv3、SegNet、PSPNet)。

     由于高分辨率特征和复杂的网络连接,大多数方法需要大量的计算成本。

3、实时语义分割:轻量级主干(DFANet,DFNet等)、多分支架构(ICNet,BiSeNetV1,BiSeNetV2)。   

四、方法

网络架构

        使用预训练的STDC作为编码器的骨干网络,采用 BiSeNet的上下文路径来编码上下文信息。

1、编码网络

1.1 短时密集连接(Short-Term Dense Concatenate,STDC)模块

        在图像分类任务中,在更高层中使用更多通道是一种常见的做法。 但是在语义分割任务中,我们专注于可扩展的感受野和多尺度信息。低层需要足够的通道来编码感受野小的更细粒度的信息,而感受野大的高层更注重高层信息的归纳,与低层设置相同的通道可能会导致信息冗余 。

(a)STDC 网络,(b)和 (c)STDC 模块

        STDC网络由除输入层和预测层外的6个阶段组成。通常,第 1-5 阶段分别以步长2对输入进行空间分辨率下采样,第 6 阶段通过一个 ConvX、一个全局平均池化层和两个全连接层输出预测。

       

        阶段1和2通常被视为外观特征提取的低级层。为了追求效率,我们在第一阶段和第二阶段只使用一个卷积块,根据我们的经验证明已经足

<think>好的,我现在需要回答用户关于轻量级语义分割网络英文的问题。用户之前已经询问过中文的轻量化语义分割模型,现在转向英文术语资源。首先,我需要确定用户的需求:他们可能是在寻找英文文献、模型名称的英文写法,或者国际社区常用的术语。 首先,用户之前的问题是关于近几年优秀的轻量化模型,现在问的是英文对应的内容。可能的意图是学术写作、查找英文资料,或者了解国际上的研究动态。我需要确保回答准确,提供正确的英文模型名称、关键术语,以及相关的英文论文或资源。 接下来,我需要回忆常见的轻量级语义分割模型的英文名称。例如,BiSeNet系列在英文中也是同样的写法,STDCNet全称是Short-Term Dense Concatenation Network。此外,像Fast-SCNN、SegFormer这些名称在英文中保持一致。需要确认这些模型的正确英文拼写缩写。 然后,考虑用户可能需要的关键术语。比如,“轻量级”在英文中是“lightweight”,“语义分割”是“semantic segmentation”,组合起来是“lightweight semantic segmentation”。模型结构方面,双分支是“dual-branch”,实时处理是“real-time processing”,模型压缩技术如“knowledge distillation”知识蒸馏,“pruning”剪枝,“quantization”量化等。 另外,用户可能需要了解英文论文中的常见表达,比如“mIoU”(mean Intersection over Union),“FPS”(Frames Per Second),以及常用的数据集如Cityscapes、ADE20K、PASCAL VOC等。 还需要注意,有些模型在英文文献中有不同的称呼,或者缩写可能需要展开。例如,PIDNet中的PID指的是Proportional-Integral-Derivative,可能需要解释。此外,像Mobile-Former这样的组合模型,名字中的Mobile来自MobileNet,Former指Transformer,这种组合的命名方式在英文中常见。 另外,用户可能对最新的研究趋势感兴趣,比如使用Transformer架构的轻量化改进,或者自监督学习在轻量级模型中的应用,这些在英文中对应的术语如“vision transformers”、“self-supervised learning”等。 还要考虑是否要推荐一些英文资源,如顶级会议(CVPR、ICCV、ECCV)、期刊(TPAMI、IJCV),或者公开的代码库(GitHub)数据集网站。例如,BiSeNet的代码可能托管在GitHub,论文发表在ECCV或CVPR。 同时,需要确保英文术语的正确性,避免拼写错误,比如“SegFormer”而非“Segformer”,“STDCNet”的正确拼写等。另外,注意大小写,如NVIDIA的硬件型号(2080Ti,V100)的正确写法。 可能还需要对比中英文之间的差异,例如有些模型在中文社区英文社区的称呼是否一致,是否有不同的别名。例如,PP-LiteSeg是百度提出的,可能在英文文献中同样使用该名称,但需要确认。 最后,需要组织这些信息,以清晰的结构呈现,比如分为模型名称、关键术语、常用指标、资源推荐等部分,帮助用户系统地了解英文相关内容。同时,检查是否有遗漏的重要模型或术语,确保信息的全面性。</think>以下是轻量化语义分割网络相关的英文术语、模型名称及关键概念整理: --- ### **核心术语对照** | 中文 | 英文 | |--------------------|----------------------------------------------------------------------| | 轻量级语义分割 | Lightweight Semantic Segmentation | | 双分支结构 | Dual-Branch Architecture | | 实时推理 | Real-Time Inference | | 模型压缩 | Model Compression (包括知识蒸馏 Knowledge Distillation, 剪枝 Pruning) | | 动态计算 | Dynamic Computation | | 多分辨率融合 | Multi-Resolution Fusion | --- ### **代表性模型英文名称** 1. **BiSeNet 系列** - 全称:**Bilateral Segmentation Network** - 关键模块: - Spatial Path(空间路径) - Context Path(上下文路径) - Feature Fusion Module(特征融合模块) 2. **STDCNet** - 全称:**Short-Term Dense Concatenation Network** - 特点:通过密集短连接减少冗余计算(Dense Short Connections) 3. **Fast-SCNN** - 全称:**Fast Segmentation Convolutional Neural Network** - 结构:双金字塔分支(Two-Pyramid Branch) + 共享浅层特征(Shared Shallow Features) 4. **SegFormer** - 全称:**Segmentation Transformer** - 核心:Mix Transformer Encoder(MiT) + 轻量级MLP解码器(Lightweight MLP Decoder) 5. **PIDNet** - 全称:**Proportional-Integral-Derivative Network** - 灵感来源:控制理论中的PID控制器(PID Controller) --- ### **关键性能指标英文表达** 1. **mIoU**:Mean Intersection over Union(平均交并比) 2. **FPS**:Frames Per Second(帧率) 3. **Params**:Parameters(参数量,单位:Million/M) 4. **FLOPs**:Floating Point Operations(浮点运算量) --- ### **常用英文数据集** 1. **Cityscapes**:城市道路场景分割(分辨率2048&times;1024) 2. **ADE20K**:通用物体分割(包含150类) 3. **PASCAL VOC**:经典分割基准(20类) 4. **COCO-Stuff**:复杂场景分割(包含172类) --- ### **英文论文推荐** 1. **BiSeNet V2** (ECCV 2020) - 标题:*"BiSeNet V2: Bilateral Network with Guided Aggregation for Real-time Segmentation"* - 链接:[arXiv:2004.02147](https://arxiv.org/abs/2004.02147) 2. **STDCNet** (CVPR 2021) - 标题:*"Rethinking BiSeNet for Real-time Semantic Segmentation"* - 代码:[GitHub-STDC](https://github.com/MichaelFan01/STDC-Seg) 3. **SegFormer** (NeurIPS 2021) - 标题:*"SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers"* - 亮点:无位置编码(Position-Free)的Transformer设计 --- ### **开源框架支持** 1. **MMSegmentation** (OpenMMLab):支持BiSeNet、Fast-SCNN等 2. **TensorFlow Model Garden**:提供DeepLabv3+ Mobile版本 3. **PyTorch官方示例**:包含轻量级UNet实现 --- ### **研究趋势(英文关键词)** 1. **Vision Transformers**:轻量化视觉Transformer(如MobileViT) 2. **Neural Architecture Search (NAS)**:自动搜索高效分割结构(如Auto-DeepLab) 3. **Edge-Device Optimization**:面向边缘设备的优化(如TensorRT部署) 如果需要特定模型的代码实现或论文解读,可进一步提供详细信息! 🚀
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值