(十二)MaskFormer

NeurIPS 2021会议上提出的MaskFormer模型创新性地将语义分割任务从逐像素分类转换为掩码分类。这种方法通过预测一组与全局类标签相关的二进制掩码,简化了语义和实例分割任务,尤其在大量类别情况下表现出色。掩码分类损失由交叉熵分类损失和二元掩码损失组成,使得模型能够处理多个相同类别的掩码预测。MaskFormer作为模块可以应用于任何逐像素分类模型,以实现掩码分类功能。

Per-Pixel Classification is Not All You Need for Semantic Segmentation

NeurIPS 2021
原文链接

掩码分类具有足够的通用性,可以使用完全相同的模型、损失函数和训练过程,以统一的方式解决语义级和实例级的分割任务。
本文提出MaskFormer,一个掩码分类模型。预测一组二进制掩码,每个掩码都与一个单个全局类标签预测相关联。简化了语义分割和全景分割任务,当类的数量很大时,MaskFormer比逐像素分类表现得更好。

掩码分类:

1. 1. 1.将图像分成 N N N个区域( N N N不需要等于类别数),用二进制掩码表示。
在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值