【论文阅读】MIL-FCN:全卷积多类多实例学习
多实例学习(MIL)可以通过削弱所需的监督程度来减少对语义分割等任务中昂贵的注释的需求
提出了一种新的基于全卷积网络的多类语义分割学习的MIL公式
试图从弱图像级标签中学习语义分割模型
-
端到端训练,以共同优化表示
-
消除像素图像标签分配的歧义
通过PASCAL VOC分割挑战的初步实验来评估这种方法
一、介绍
卷积网络在许多计算机视觉任务上取得了最先进的性能,但需要昂贵的监督
卷积神经网络同样可以处理具有结构化输出的局部任务
全卷积网络(FCN)的多实例学习(MIL)的新框架
表示对象存在或不存在的弱图像级标签中学习像素级语义分割
该工作的核心是通过多实例学习驱动卷积神经网络表示和像素分类器的联合学习
为了从图像标签中学习分割模型,我们将每张图像转换为一个像素级的实例
MIL可以减少对边界框注释的需求
相应的工作:
- Oquab等人(2014)通过推断潜在目标位置来改进图像分类,但没有评估定位
- Hoffman等人(2014)通过MIL微调进行训练,但依赖于边界盒监督和表示学习建议
大部分工作学习边界信息
贡献:
- 全卷积网络中联合MIL和端到端表示学习
- 受二进制MIL场景启发的多类像素级损失
- 像素级的一致性线索有助于消除物体存在的歧义
二、MIL-FCN
全卷积网络(

本文介绍了一种基于全卷积网络的MIL方法,用于从图像级别的弱标签学习语义分割,通过减少对边界框注释的依赖。MIL-FCN采用多类MIL损失,通过端到端训练优化表示,实现在PASCALVOC分割挑战中的初步实验成果。
最低0.47元/天 解锁文章
1363

被折叠的 条评论
为什么被折叠?



