用于鲁棒目标跟踪的自组织计算机视觉
1. 多滤波器融合跟踪概述
在目标跟踪领域,为了实现一个自主的计算机视觉系统,采用了多滤波器融合的方法。该方法构建了一个自主跟踪框架,尤其适用于资源受限的嵌入式计算机视觉场景。
1.1 框架整体结构
框架结合了多种方法,核心是多滤波器融合,即对同一输入帧使用多个图像滤波算法。设设计者提供的所有可用滤波器集合为 (F),由于资源限制,在时刻 (t) 只能有一部分滤波器处于活跃状态,记为 (F_{active,t} \subseteq F)。这些活跃滤波器可在单处理器上顺序处理输入帧,也可在多处理器系统或现场可编程平台上并行处理。当前研究聚焦于在基于 FPGA 的系统上实现,该系统可动态重新配置硬件模块。
跟踪组件将滤波器的结果进行融合,采用概率方法,其优势在于跟踪过程能时刻考虑自身感知的不确定性,不仅能处理模糊和有噪声的传感器数据,还能从错误中恢复。同时,引入了自适应机制以应对环境的不可预测变化,通过评估图像滤波器的性能,为每个滤波器分配权重,以此决定其对跟踪结果的贡献程度。
1.2 粒子滤波
1.2.1 系统模型与贝叶斯跟踪
系统状态 (x_t) 随时间的演变由系统模型描述:
[x_t = g(x_{t - 1}, N_g)]
在跟踪场景中,状态 (x_t = (p_t, v_t, r_t)^T) 分别表示物体在时刻 (t) 的位置 (p_t)、速度 (v_t) 和大小 (r_t),(N_g) 是用于建模系统动态的多元高斯随机变量。算法通过图像传感器的测量值 (y_t) 感知物体,由于传感器噪声和图像算法的不精确性,测量存在不确定性。
超级会员免费看
订阅专栏 解锁全文
14万+

被折叠的 条评论
为什么被折叠?



