基于Adaboost与QP_TR的目标跟踪及视觉伺服中图像雅可比矩阵对比研究
在计算机视觉领域,目标跟踪和视觉伺服是两个重要的研究方向。目标跟踪旨在准确跟踪视频序列中目标的位置和状态,而视觉伺服则利用视觉信息来控制机器人系统的运动。本文将介绍一种基于Adaboost和QP_TR的目标跟踪算法,并对视觉伺服中基于基本矩阵估计的图像雅可比矩阵和解析图像雅可比矩阵的性能进行比较。
基于Adaboost和QP_TR的目标跟踪算法
目标跟踪原理
目标跟踪的基本思路是为参考图像中的每个像素生成特征向量,并训练一个分类器,将属于目标的像素与属于背景的像素分开。对于新的视频帧,使用该分类器对像素进行测试,形成一个似然图像。似然图像中的灰色斑点即为目标移动到的位置,可使用优化算法对其进行定位。
跟踪精度与目标缩放的描述密切相关。以往的相关工作大多通过处理一些可能的离散缩放值来解决缩放问题,但离散值无法适应目标的复杂运动。本文提出将QP_TR方法与尺度空间理论相结合,搜索生成的似然图像的多尺度归一化拉普拉斯滤波的局部最大值,从而实现目标缩放的连续描述。
该算法具有以下优点:
1. 将耗时的特征分类器训练阶段分解为一系列简单易计算的学习任务,可在线执行。
2. 能够自动调整不同分类器的权重,并随时间整合分类器,提高了跟踪器在光照变化情况下的稳定性。
3. 以连续方式精确描述目标的缩放,提高了跟踪精度。
似然图像的生成
Adaboost学习技术将一组弱分类器组合成一个强分类器。每个弱分类器在正样本(来自目标)和负样本(来自背景)上进行训练。强分类器用于对下一帧中的样本(对应像素)进行分类
超级会员免费看
订阅专栏 解锁全文
10万+

被折叠的 条评论
为什么被折叠?



