DeepRoute Lab | AAAI22新工作:基于稀疏跨尺度注意力网络的高效LiDAR全景分割

本文介绍了一项在AAAI22会议上发表的研究,该研究提出了一种名为Sparse Cross-scale Attention Network (SCAN)的方法,用于解决自动驾驶中的LiDAR点云全景分割问题。SCAN通过cross-scale global attention模块和BEV sparse centroid distribution,解决了点云分割中的过分割和欠分割问题,实现了高效且精确的全景分割。实验表明,该方法在保持实时性的同时,达到了SORT的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

By 元戎感知组

今天和大家分享工作的是自动驾驶中的点级别的全景分割感知任务。内容主要是解读我们组最新的一篇被AAAI22接收的点云全景分割的工作 Sparse Cross-scale Attention Network for Efficient LiDAR Panoptic Segmentation.

Introduction & Motivation

About Panoptic Segmentation

对于自动驾驶而言,仅仅是提取感兴趣物体的检测信息(位置、大小、速度和类别等)是不够的,这种信息只能描述一个驾驶场景中的部分信息,另一部分信息包括建筑物,树木、栅栏等非物体信息同样对驾驶的决策起着重要作用。其次,物体框级别的信息对于某些场景就不够用了,比如多段车场景等,这时候就需要精确到点级别的感知能力。

因此,除了检测任务,自动驾驶重同样有一个重要的任务——分割。其中点云语义分割的任务是要给点云中的每一个点打上一个标签,比如车辆、行人、树木、栅栏等等;而点云实例分割的主要任务是判断点是否属于一个物体,并且属于哪个物体,即给每个点打上所属物体的id标签。点云全景分割可以看做是点云语义分割和实例分割的结合,参考下图:

基于LiDAR点云的不同的分割任务【1】

Related Work

点云有一些特性:稀疏性(sparse),表面聚集性(surface-aggregated)。这使得处理全景分割这样的任务时会有一些问题:

  1. LiDAR只能照射到物体表面,因此对于一些大车来说,表面点距离其中心很远,往往会导致过分割,如下图b
  2. 有些距离很近的小物体,比如聚集的人群,往往又会在距离空间和特征空间上被错误的合并在一起,形成欠分割,如下图a,c
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值