FlowNet3D&HPLFlowNet学习笔记(CVPR2019)

本文介绍FlowNet3D,一种用于三维动态点云数据环境理解的网络,它能从连续点云端到端地估计场景流。文章提出了flowembedding和setupconv两个新层,分别用于融合点云数据和上采样生成场景流。实验证明,该方法在KITTI数据集上的三维场景流估计方面优于传统方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

FlowNet3D

本文是从三维动态点云数据中进行环境理解的一种网络,(场景流)

本文贡献:

  1. 提出了一种新的架构,称为FlowNet3D,它可以从一对连续的点云端到端估计场景流。
  2. 在点云上引入了两个新的学习层(flow embedding和set upconv):学习关联两个点云的流嵌入层和学习将一组点的特性传播到另一组点的上采样层。(前者用于将两个点云的数据进行相关的融合,后者是上采样层,同时能够生成场景流)
  3. 展示了如何将所提出的FlowNet3D架构应用到KITTI的实际激光雷达扫描中,并与传统方法相比,在三维场景流估计方面取得了很大的改进。

本算法输入:

为连续两帧的原始点云

本算法输出:

第一帧中所有点所对应的密集的场景流

在这里插入图片描述

网络结构:

FlowNet网络结构
FlowNet网络结构
网络结构中3个关键点的讲解
结构中三个关键点的讲解

网络的三个主要部分讲解:
  1. ponitnet++在原始点云上进行点云特征的提取,
  2. 通过本文新发明的flow embedding网络,学习上下帧两幅图中的点的几何关系,推断运动。(在第一帧中取中心点,其临近点从第二帧中取,再提取特征。)
  3. 上采样层。上采样到原始点,并在最后一层预测所有原始点的流。

注:每个可学习层都是多层感知机来完成的(MLP)

在这里插入图片描述
参考博客:
https://www.sohu.com/a/320446782_715754
https://blog.youkuaiyun.com/hailanglin/article/details/103298602

感谢两位大佬之前的阅读与总结。

HPLFlowNet

输入:

仅使用点云数据

核心思想:

采用Bilateral Convolutional Layers作为基本模块,提取前后两帧点云特征并进行融合、上采样,直接拟合出scene flow。
(文章受到bilateral convolutional layers的启发,本文作者发明了DownBCL,UpBCL和CorrBCL)

备注:

与FlowNet3D的整体结构一样,都是下采样-融合-上采样。Bilateral Convolutional Layers能够快速处理高维稀疏数据,是不同于PointNet的一种滤波操作

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值