😻SQN(ECCV2022) 主要贡献:
- 提出了一种利用点邻域查询从而充分利用稀疏训练信号的弱监督方法
- 论文观察到,现有的完全监督方法在标注点下降到 1% 时其性能下降不是很明显,这表明完全、密集的标记是多余的
- 在论文提出的基准中,其对 baseline 有着显著的改进,并在很大程度上超过了最先进的弱监督方法
前言
😿完全标记点云是非常耗时和昂贵的,随着拥有数十亿点的大型点云数据集变得越来越普遍,且在完整标注点云数据集下设计的现有 baseline 即使面对 1% 的随机点标注也只会略有下降,这甚至导致我们会认为完整标注是否必要。然而,当标注点少于 1%(如:0.1% 的标注)时,其分割精度会降低到不可接受的程度。
😿尽管弱监督学习应用在多个 3D 点云数据集上取得了令人鼓舞的结果,但其有以下几个局限仍有待解决:
- 现有的方法通常使用自定义方法来标注不同数量的数据(如:原始点或超点的 10% / 5% / 1%)用于训练,这导致我们不清楚应该标注多少比例的原始点以及如何标注它们,因此不可能进行公平的比较
- 为了充分地利用稀疏的标注点,现存的弱监督 pipeline 通常包含数据增强、self-training、微调、后处理等多个阶段,这导致其相对于端到端的训练方式而言更难调参且更难部署应用
- 这些技术没有充分考虑大规模点云中点邻居的局部语义同质性(local semantic homogeneity),或者没有有效地做到这一点,从而导致有限但有价值的标注未得到充分利用
😸论文观察到,由于点云是三维世界的样本,其在局部邻域的点分布是具有相似性的,具体表现在其具有很强的语义相似性。基于此,我们提出了一种新的弱监督方法来隐式增强高度稀疏的监督信号。大量实验表明,论文所提出的语义查询网络(SQN)在弱监督方案下在 7 个大规模数据集上取得了良好的性能,同时只需要 0.1% 的随机标记点进行训练,大大降低了标注成本和工作量。
网络结构
✍️对于具有稀疏标注的点云,弱监督学习面临的根本挑战是如何充分利用稀疏但有价值的训练信号来更新网络参数,从而学习到更具几何意义的局部信息。为了解决这个问题,论文设计了一个简单的 SQN,它由点局部特征提取器(point local feature extractor)和点特征查询网络(point feature query network)这两个主要组件组成。

- 点局部特征提取器:目的是提取所有点的局部特征,其可由许多网络来充当提取器(论文使用
RandLA-Net作为特征提取器),这些网络通常将多个编码层叠加在一起并通过降采样操作提取分层局部特征。如上图所示,该提取器由四层伴有随机采样(RS)的局部特征聚合(LFA)组成。为了便于后面点特征查询网络的工作,SQN 始终保留每个层次特征向量对应点的位置(xyz)信息。 - 点特征查询网络:该查询网络旨在收集尽可能多的相关特征,并使用可用的稀疏信号进行训练。如上图所示,它以特定的 3D 查询点为输入,获取与该点相关的一组学习到的点特征。该网络由空间邻近点特征搜索(Searching Spatial Neighbouring Point Features)、插值查询点特性(Interpolating Query Point Features)和推断查询点语义(Inferring Query Point Semantics)这三部分构成。
- 空间邻近点特征搜索:该模块根据点之间的欧氏距离在特征提取器的 4 个编码层中搜索距离查询点最近的
K个点,K 为超参数,其在论文中被设置为3。 - 插值查询点特性:对于每一层的特征,查询的 K 个向量被压缩成查询点 p 的一个紧凑表示(compact representation)。为了简单起见,论文应用三线性插值方法,根据 p 和 K 个点之间的欧氏距离计算 p 的特征向量。最后,将四个层次特征向量拼接在一起,表示整个三维点云中所有相关的点特征。
- 推断查询点语义:在得到查询点 p 唯一且具有代表性的特征向量后,我们将其输入到一系列 MLP 中,直接推断出点的语义类别。
- 空间邻近点特征搜索:该模块根据点之间的欧氏距离在特征提取器的 4 个编码层中搜索距离查询点最近的
LFA
😸Local Feature Aggregation(LFA)是在论文 RandLA-Net 中提出,该模块主要是用于解决由于随机采样(RS)导致许多有用的点特征被删除的问题,其主要由局部空间编码(Local Spatial Encoding)、注意力池化(Attentive Pooling)和扩张残块(Dilated Residual Block)这三部分组成。

LocSE
😸LocSE 模块显式地嵌入(embeds)所有邻居点的三维坐标,这样对应的点特征总是知道它们的相对空间位置,从而使得 LocSE 可以显式地观察局部几何模式(patterns),这有利于整个网络有效地学习复杂的局部结构。其主要包含以下三个步骤:
- 查找邻居点:论文通过
KNN算法来获取第 i i i 个点的所有邻居点(K 个),这里的 KNN 算法基于point-wise的欧几里得距离 - 相对点位置编码:对于中心点 p i p_i pi 的 K K K 个邻居点 { p i 1 ⋯ p i k ⋯ p i K } \{p_i^1 \cdots p_i^k \cdots p_i^K\} { pi1⋯pik⋯piK},可通过以下运算来获取其相对点位置编码:
r i k = M L P ( p i ⨁ p i k ⨁ ( p i − p i k ) ⨁ ∥ p i − p i k ∥ ) \pmb{r}_i^k = MLP(p_i \bigoplus p_i^k \bigoplus (p_i - p_i^k) \bigoplus \parallel p_i - p_i^k \parallel) rrik=
SQN:利用弱监督学习提升点云语义分割

本文介绍了SQN,一种针对点云语义分割的弱监督学习方法,它能有效利用稀疏标注。SQN通过点局部特征提取器和点特征查询网络,利用点邻域的局部语义同质性增强稀疏训练信号。实验显示,SQN在仅0.1%标注点的情况下,在多个大规模数据集上表现优越,降低了标注成本。
最低0.47元/天 解锁文章
2281

被折叠的 条评论
为什么被折叠?



