标题:Multi-view Incremental Segmentation of 3D Point Clouds for Mobile
Robots
作者:Jingdao Chen1, Yong K. Cho2, and Zsolt Kira1
摘要
现有点云语义分割大部分基于单帧或者离线的基础。如PointNet[6]和SGPN[7],在应用于机器人实时扫描时缺乏实时性,因为它们被设计成一次操作一个点云,并且没有以增量方式合并来自新扫描的信息。没办法随着时间推移整合分割的结果。该文章提出了移动机器人可以在线递增的生成环境的富语义三维点云。论文提出的MCPNet被训练用来预测类的标签和扫描到的点云的每个点的标签。 类标签直接通过神经网络计算。实力标签则通过凝聚聚类决定(agglomerative clustering)。Multi-view context pooling(MCP)用来整合各个视点获得的点的特征来提高分类的准确度。这个在线增量分割框架允许在十分之一秒内处理新的扫描,而如果使用离线方法重新计算整个点云的分割,则只需半分钟
训练集:Stanford 3D Indoor Spaces dataset
效果:与最好的在线方法比,点的精确度提升了15%, NMI提升了7%,与基于PointNet的离线方法比,准确度降低了6%
主要贡献
- 设计了MCP来从多个视点整合信息
- 提出了一个在单一框架下进行在线点云聚类和分类的联合网络
- 介绍了一种用于标记动态激光扫描数据的模拟光线跟踪数据集
相关工作
移动机器人获取的点云数据的语义处理可以采用聚类、分类等多种形式进行。聚类主要是将大点云分成小的能组成语义内聚单元的快。通常依赖于种子点(seed point),然后围绕这个点生成一点云。生成的标准有距离,法向量的相似性,颜色的相似性。更复杂的有使用深度学习框架来预测。比如SGPN。本篇论文采用距离来作为分组标准