【弱监督语义分割论文阅读】基于多尺度注意力融合的弱监督语义分割自训练框架

文章提出一种基于多尺度注意力融合的弱监督语义分割自训练框架,通过融合不同尺度的注意力图来解决仅依赖图像级标签的挑战,使用去噪和再激活策略优化模型性能,实验在PASCALVOC2012上进行。

【论文阅读】基于多尺度注意力融合的弱监督语义分割自训练框架


  A Self-Training Framework Based on Multi-Scale Attention Fusion for Weakly Supervised Semantic Segmentation

  由于难以获得完整的语义区域,基于图像级标签的弱监督语义分割(WSSS)具有挑战性,所以这里的标签都是用的图像级的标签

  为了解决这个问题,我们提出了一种利用融合的多尺度类意识注意图的自我训练方法

特征图中:

  • 特别是对于大对象和小对象,包含丰富的互补信息
  • 从不同尺度的注意图中收集信息,得到多尺度的注意图

  

我们应用去噪和再激活策略来增强潜在区域并减少噪声区域

;使用改进的注意力图对网络进行再训练

  

PASCAL VOC 2012验证集和测试集上进行实验

  

一、介绍

语义分割作为计算机视觉中的一项重要任务,在许多领域发挥着重要作用

训练一个完全监督的语义分割需要密集的注释

引入了弱监督语义分割(WSSS),它只需要粗糙的标签

  

本文主要研究基于图像级标签的WSSS

  

现有方法大多采用类激活映射(Class Activation Mapping, CAM)提供初始位置线索,并作为伪分割标签训练语义分割模型

类感知注意图(CAMs)倾向于关注最具区别性的区域,这与语义分割所需的密集注释存在差距

为了减少CAM存在的差距:

  • 区域删除和增长
  • 使用额外的监督信息
  • 以及自监督学习

  

其实本质上都是为了生成更精确的伪掩码

当呈现不同尺度的图像时,WSSS模型的响应可能会有所不同

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值