高杂乱场景下实现基于模型的无纹理3D目标训练、监测和姿态估计(笔记)——2012
** Model Based Training, Detection and Pose Estimation of Texture-Less 3D Objects**
摘要
文章提出了一个使用Kinect体感相机(RGBD sensors),实现对3D目标自动建模、检测和跟踪的构架。基于LINEMOD法(其目标检测部分主要运用基于模板的LINEMOD方法,通过改进,提升13%检测正确率),利用RGBD信息,完成多视角模板匹配,提供姿态粗估计,具有可在线实时学习3D模型能力,可处理大量杂波和中度遮挡场景,能同时检测多目标。
引言
- 视觉应用,增加深度信息提升稳定性
- 基于LINEMOD法,利用深度和色彩信息,完成多视角模板匹配,提供姿态粗估计
- 原始的LINEMOD法有3点不足:(待优化)
(1) 在线学习模板难以控制且视点覆盖不均
(2) 只能输出姿态概略估计
(3) 存在误报 - 主要贡献:
(1) 提出了易使用、可靠、快速实时架构
(2) 提出了由15个配准的1100+多帧视频序列组成的15种不同的对象的数据集
相关工作
-
机图像Camera Images 基于图像的目标检测分为:
(1) 基于学习的方法:对如人脸、汽车等特定类目标概括较好,但限制在特定类、大数据集、训练时间
新特征BOB (bag of boundaries):在训练集图像中的给定点处,是图像轮廓的边界直方图。泛化能力好,但实时性准确性不佳
(2) 基于模板的方法:无需大量模板和训练时间 以上方法不是易受背景杂波影响就是实时性差