标定神器 | 实例分割自动标定(英伟达&复旦)

作者 | 平山海  编辑 | CV51

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心【分割】技术交流群

后台回复【分割综述】获取语义分割、实例分割、全景分割、弱监督分割等超全学习资料!

简述:基于Transformer构建了分割自动标注器,用于产生分割标注作为实例分割算法的监督信息,基于生成的标注训练实例分割网络,分割效果达到了全监督的97.4%。

2d36a80cc4e076c252b553296f860237.png
  • 论文:Vision Transformers Are Good Mask Auto-Labelers

  • 开源代码:https://github.com/NVlabs/mask-auto-labeler

  • 单位:英伟达、Meta AI、复旦大学等

手工标注实例分割标签,价格高、耗时长,且不容易控制标注质量。因此可以用box监督分割算法的训练。作者基于Transformer构建了分割自动标注器(Mask Auto-Labeler,简称MAL),用于在box监督下产生分割标注,作为实例分割算法的监督信息。

自动生成的实例分割标签示例如下:

d5fe7cae7f4bc8ec5ee35233846237f4.png

作者使用了2阶段框架:

  • 阶段1:分割标签自动标注 该阶段使用MAL产生高质量的分割标注。MAL的输入为Box区域,而非整张图,以提高小目标的分辨率。

  • 阶段2:实例分割算法训练 利用阶段1生成的分割标注作为监督信息,训练实例分割算法。这里能使用各种实例分割算法进行训练。

如下图所示:

6394a2a3d9e782a1b7448eabb0fdfec0.png

1.MAL输入样本的生成

将box进行扩张,得到MAL的输入样本,如下图所示。其中,原始box的部分为正样本,扩张的部分全部是背景信息,为负样本。

94c265a33c95333897f8090ed86ecbb2.png

在box扩张时,引入了一定的随机性:

0fb4c73cdc54fe23fb46ddb27d759c14.png

2.MAL架构

MAL的网络结构包含2部分,其一为task网络,其二为teacher网络,两者结构相同。两者均包含Image Encoder(记作E)和Mask Decoder(记作D)。如下图所示:

5f56ccf84e26c46bb57c72ada9c36ddc.png
  • Image Encoder

使用标准的ViT结构,去掉分类head。

  • Mask Decoder

借鉴YOLACT,使用了注意力机制网络,包含instance-aware head 和pixel-wise head :,其中表示内积。

d0c264efd6422dfc81743a24760f6530.png

teacher网络不直接参与训练,而是借鉴MOCO的思路,利用task网络的权重使用EMA(exponential moving averages)的方法更新teacher网络的参数,以防止loss为Nan,保证训练的稳定性。

3.损失函数

使用了Multiple Instance Learning Loss和Conditional Random Field Loss。

  • Multiple Instance Learning Loss:目的是保证box紧贴目标。

f83ba895514f296d8a115fd8915ebcdc.png
  • Conditional Random Field Loss:通过能量最小化精炼mask的预测。

e294e02b05ac0e8d6dddb4e18b380606.png 2ae0564343cf3f319c463364372553af.png

4.实验结果

d72983d8b6dd788212244d48020b13c9.png 02e0c5220c772180b2e08cb40045b3ed.png bcf9ccc8697071d5918a32851feaf406.png

7f66fd457b08bf63224108ab1f78bbd8.png

自动驾驶之心】全栈技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多传感器融合、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、硬件配置、AI求职交流等方向;

ded2839cb19e92b87732b52e03013d02.jpeg

添加汽车人助理微信邀请入群

备注:学校/公司+方向+昵称

一、基本概念 1. 什么是目标检测 目标检测(Object Detection)的任务是找出图像中所有感兴趣的目标(物体),确定它们的类别和位置,是计算机视觉领域的核心问题之一。由于各类物体有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具有挑战性的问题。 计算机视觉中关于图像识别有四大类任务: (1)分类-Classification:解决“是什么?”的问题,即给定一张图片或一段视频判断里面包含什么类别的目标。 (2)定位-Location:解决“在哪里?”的问题,即定位出这个目标的的位置。 (3)检测-Detection:解决“在哪里?是什么?”的问题,即定位出这个目标的位置并且知道目标物是什么。 (4)分割-Segmentation:分为实例分割(Instance-level)和场景分割(Scene-level),解决“每一个像素属于哪个目标物或场景”的问题。 所以,目标检测是一个分类、回归问题的叠加。 2. 目标检测的核心问题 (1)分类问题:即图片(或某个区域)中的图像属于哪个类别。 (2)定位问题:目标可能出现在图像的任何位置。 (3)大小问题:目标有各种不同的大小。 (4)形状问题:目标可能有各种不同的形状。 3. 目标检测算法分类 基于深度学习的目标检测算法主要分为两类:Two stage和One stage。 1)Tow Stage 先进行区域生成,该区域称之为region proposal(简称RP,一个有可能包含待检物体的预选框),再通过卷积神经网络进行样本分类。 任务流程:特征提取 --> 生成RP --> 分类/定位回归。 常见tow stage目标检测算法有:R-CNN、SPP-Net、Fast R-CNN、Faster R-CNN和R-FCN等。 2)One Stage 不用RP,直接在网络中提取特征来预测物体分类和位置。 任务流程:特征提取–> 分类/定位回归。 常见的one stage目标检测算法有:OverFeat、YOLOv1、YOLOv2、YOLOv3、SSD和RetinaNet等。 4. 目标检测应用 1)人脸检测 智能门控 员工考勤签到 智慧超市 人脸支付 车站、机场实名认证 公共安全:逃犯抓捕、走失人员检测 2)行人检测 智能辅助驾驶 智能监控 暴恐检测(根据面相识别暴恐倾向) 移动侦测、区域入侵检测、安全帽/安全带检测 3)车辆检测 自动驾驶 违章查询、关键通道检测 广告检测(检测广告中的车辆类型,弹出链接) 4)遥感检测 大地遥感,如土地使用、公路、水渠、河流监控 农作物监控 军事检测 二、目标检测原理 目标检测分为两大系列——RCNN系列和YOLO系列,RCNN系列是基于区域检测的代表性算法,YOLO是基于区域提取的代表性算法,另外还有著名的SSD是基于前两个系列的改进。 1. 候选区域产生 很多目标检测技术都会涉及候选框(bounding boxes)的生成,物体候选框获取当前主要使用图像分割与区域生长技术。区域生长(合并)主要由于检测图像中存在的物体具有局部区域相似性(颜色、纹理等)。目标识别与图像分割技术的发展进一步推动有效提取图像中信息。 1)滑动窗口 通过滑窗法流程图可以很清晰理解其主要思路:首先对输入图像进行不同窗口大小的滑窗进行从左往右、从上到下的滑动。每次滑动时候对当前窗口执行分类器(分类器是事先训练好的)。如果当前窗口得到较高的分类概率,则认为检测到了物体。对每个不同窗口大小的滑窗都进行检测后,会得到不同窗口检测到的物体标记,这些窗口大小会存在重复较高的部分,最后采用非极大值抑制(Non-Maximum Suppression, NMS)的方法进行筛选。最终,经过NMS筛选后获得检测到的物体。 滑窗法简单易于理解,但是不同窗口大小进行图像全局搜索导致效率低下,而且设计窗口大小时候还需要考虑物体的长宽比。所以,对于实时性要求
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值