【论文阅读】基于多尺度注意力融合的弱监督语义分割自训练框架
A Self-Training Framework Based on Multi-Scale Attention Fusion for Weakly Supervised Semantic Segmentation
由于难以获得完整的语义区域,基于图像级标签的弱监督语义分割(WSSS)具有挑战性,所以这里的标签都是用的图像级的标签
为了解决这个问题,我们提出了一种利用融合的多尺度类意识注意图的自我训练方法
特征图中:
- 特别是对于大对象和小对象,包含丰富的互补信息
- 从不同尺度的注意图中收集信息,得到多尺度的注意图
我们应用去噪和再激活策略来增强潜在区域并减少噪声区域
;使用改进的注意力图对网络进行再训练
PASCAL VOC 2012验证集和测试集上进行实验
一、介绍
语义分割作为计算机视觉中的一项重要任务,在许多领域发挥着重要作用
训练一个完全监督的语义分割需要密集的注释
引入了弱监督语义分割(WSSS),它只需要粗糙的标签
本文主要研究基于图像级标签的WSSS
现有方法大多采用类激活映射(Class Activation Mapping, CAM)提供初始位置线索,并作为伪分割标签训练语义分割模型
类感知注意图(CAMs)倾向于关注最具区别性的区域,这与语义分割所需的密集注释存在差距
为了减少CAM存在的差距:
- 区域删除和增长
- 使用额外的监督信息
- 以及自监督学习
其实本质上都是为了生成更精确的伪掩码
当呈现不同尺度的图像时,WSSS模型的响应可能会有所不同

文章提出一种基于多尺度注意力融合的弱监督语义分割自训练框架,通过融合不同尺度的注意力图来解决仅依赖图像级标签的挑战,使用去噪和再激活策略优化模型性能,实验在PASCALVOC2012上进行。
最低0.47元/天 解锁文章
186

被折叠的 条评论
为什么被折叠?



