迈向鲁棒在线视觉跟踪与异常事件检测
1. 在线视觉跟踪相关内容
在视觉跟踪领域,当物体进出相机视野时,对其进行检测和识别是关键问题。一种直接的方法是设置探测器置信度的阈值,但为了让机器模拟人类水平的视觉认知,还需研究更复杂的算法。
对于跟踪铰接物体,这在运动分析中极为重要。当能通过在线算法稳健跟踪单个物体后,如何将这些方法扩展到铰接物体成为新问题。以跟踪 3D 人体姿态为例,应用贝叶斯跟踪方法的主要困难在于状态向量的高维度,通常为 20 - 60 维。不过,姿态参数通常可假定位于嵌入高维空间的低维流形上。
为解决此问题,提出了使用全局协调因子分析器混合模型(GCMFA)。其操作步骤如下:
1. 从运动捕捉数据中学习 GCMFA 模型,该模型为低维流形提供全局参数化。
2. 混合中的每个因子分析器是“局部线性降维器”,可近似流形的一部分。
3. 通过在全局坐标系中对齐这些局部线性部分,获得流形的全局参数化。
4. 利用运动捕捉序列作为训练数据,GCMFA 能有效保留重要信息,捕捉关键运动学信息。
5. 局部线性因子分析器的全局协调确保姿态在潜空间中有全局一致的参数化,并保留流形的连续性。
6. 高维姿态数据的密度通过低维空间中的分段线性高斯因子分析器近似。
7. 通过促使因子分析器的内部坐标一致,可获得用于降维的单一、连贯的低维坐标系。
8. 线性因子的混合和协调提供了低维(潜)空间与姿态空间之间的非线性双向映射。
学习完 GCMFA 模型后,将其用于具有降维状态空间的多假设跟踪器进行 3D 人体跟踪。在 HumanEva 基准数据集上对该跟踪器的性能进行评估,在真实视频实验中,所提
超级会员免费看
订阅专栏 解锁全文
178

被折叠的 条评论
为什么被折叠?



