迈向鲁棒的在线视觉跟踪
1. 在线视觉跟踪的基础与挑战
在视觉跟踪领域,传统方法往往将跟踪和识别模块独立且按顺序工作,而我们提出的方法则将二者视为互补关系。跟踪和识别的集成任务被表述为一个最大后验估计问题,其递归公式依赖于生成模型 (p(I|C_{ki})) 和转移概率 (p(C_{ki}^t |C_{kj}^{t - 1}))。子流形之间的连接被建模为子流形对之间的转移概率,这些概率可通过频率估计或简单计数直接在线学习。
近年来,增量聚类数据流的研究显示出其在多种数据类型中的应用潜力,包括网页文档、路由包、金融交易和电话记录等。我们可以借鉴这些思想,将其扩展到在线学习图像数据,以学习一组主成分分析(PCA)子空间。对于图像序列,计算图像到子流形的距离比计算到其他图像的 (\ell_2) 距离更能有效建模相似度。同时,随机化和采样方案在快速近似聚类数据流方面表现出很大的潜力,我们将利用这两个特性开发在线近似算法,将每个图像分配到一个或几个子流形 (C_{ki}) 进行加权更新。
2. 子流形的在线更新
对于由PCA子空间建模的每个子流形,我们基于R - SVD算法和顺序Karhunen - Loeve方法开发了一种高效的在线子空间更新算法,用于外观模型。该方法不仅更新正交基,还更新子空间均值,这在某些应用中非常重要,例如可用于自适应更新Fisher线性判别分析中使用的类间和类内协方差矩阵。实验结果表明,我们的子空间更新算法比最相关的工作效率高20%。
我们使用具有子空间更新的在线外观模型开发了鲁棒的跟踪算法。与特征跟踪算法不同,我们的算法不需要训练阶段,而是在对象跟踪过程中在线学习特征基。因此,我们的外观模型能够适应姿态、视角和光照的变
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



