By 元戎感知组
今天和大家分享工作的是自动驾驶中的点级别的全景分割感知任务。内容主要是解读我们组最新的一篇被AAAI22接收的点云全景分割的工作 Sparse Cross-scale Attention Network for Efficient LiDAR Panoptic Segmentation.

Introduction & Motivation
About Panoptic Segmentation
对于自动驾驶而言,仅仅是提取感兴趣物体的检测信息(位置、大小、速度和类别等)是不够的,这种信息只能描述一个驾驶场景中的部分信息,另一部分信息包括建筑物,树木、栅栏等非物体信息同样对驾驶的决策起着重要作用。其次,物体框级别的信息对于某些场景就不够用了,比如多段车场景等,这时候就需要精确到点级别的感知能力。
因此,除了检测任务,自动驾驶重同样有一个重要的任务——分割。其中点云语义分割的任务是要给点云中的每一个点打上一个标签,比如车辆、行人、树木、栅栏等等;而点云实例分割的主要任务是判断点是否属于一个物体,并且属于哪个物体,即给每个点打上所属物体的id标签。点云全景分割可以看做是点云语义分割和实例分割的结合,参考下图:

基于LiDAR点云的不同的分割任务【1】
Related Work
点云有一些特性:稀疏性(sparse),表面聚集性(surface-aggregated)。这使得处理全景分割这样的任务时会有一些问题:
- LiDAR只能照射到物体表面,因此对于一些大车来说,表面点距离其中心很远,往往会导致过分割,如下图b
- 有些距离很近的小物体,比如聚集的人群,往往又会在距离空间和特征空间上被错误的合并在一起,形成欠分割,如下图a,c

本文介绍了一项在AAAI22会议上发表的研究,该研究提出了一种名为Sparse Cross-scale Attention Network (SCAN)的方法,用于解决自动驾驶中的LiDAR点云全景分割问题。SCAN通过cross-scale global attention模块和BEV sparse centroid distribution,解决了点云分割中的过分割和欠分割问题,实现了高效且精确的全景分割。实验表明,该方法在保持实时性的同时,达到了SORT的效果。
最低0.47元/天 解锁文章
1080

被折叠的 条评论
为什么被折叠?



