迈向鲁棒的在线视觉跟踪
在视觉跟踪领域,实现鲁棒的目标跟踪一直是研究的重点。本文将介绍一种综合的在线视觉跟踪方法,涵盖子流形的在线更新、利用先验知识以及在线学习检测器等方面。
1. 子流形相关算法及特性
子流形的连接性通过子流形对之间的转移概率来建模,这些转移概率可以通过频率估计或简单计数直接在线学习。跟踪和识别的集成任务被表述为一个最大后验估计问题,与传统方法中跟踪和识别模块独立且按顺序工作不同,该方法中这两个模块相互补充,一个模块的能力和性能会因另一个模块而增强。
近年来,增量聚类数据流的研究显示出其在多种数据类型中的应用潜力。可以借鉴这些思想,将其扩展到在线学习图像数据以学习一组主成分分析(PCA)子空间。在处理图像序列时,计算传入图像到子流形的距离,而非与其他图像的 ℓ2 距离,同时利用随机化和采样方案来开发在线近似算法,将每个图像分配到一个或几个子流形进行加权更新。
对于由 PCA 子空间建模的每个子流形,基于 R - SVD 算法和顺序 Karhunen - Loeve 方法开发了一种高效的在线子空间更新算法。该方法不仅更新正交基,还更新子空间均值,可应用于自适应更新 Fisher 线性判别分析中使用的类间和类内协方差矩阵。实验结果表明,该子空间更新算法比相关工作效率高 20%。
基于在线外观模型和子空间更新开发了鲁棒的跟踪算法。与特征跟踪算法不同,该算法无需训练阶段,而是在目标跟踪过程中在线学习特征基,能够适应姿态、视角和光照的变化。外观模型比简单曲线或样条提供更丰富的描述,学习到的表示还可用于目标识别等其他任务,即使相机移动时也能同时跟踪和学习目标对象的紧凑表示。
实验表明,使用该表示无需采用复杂的小波特
超级会员免费看
订阅专栏 解锁全文
14

被折叠的 条评论
为什么被折叠?



