初始检测得到运动目标中心坐标点P(x,y)、宽度width、高度height和pt1和pt2坐标点信息。
第1步: n1 = sift_features(image, &feat1,1,pt1,pt2 ); 计算目标区域扩大一点,再计算其特征点描述信息。
具体区域大小:
n=1/pow(2.0,o);
a=2*n*(pt1.y-2);
b=2*n*(pt1.x-2);
f=2*n*(pt2.y+2);
e=2*n*(pt2.x+2);
具体区域大小:
n=1/pow(2.0,o);
a=2*n*(pt1.y-2);
b=2*n*(pt1.x-2);
f=2*n*(pt2.y+2);
e=2*n*(pt2.x+2);
第2步: n2 = sift_features(frame, &feat2,2,pt1,pt2 ); 在序列的下一帧中将区域扩大,计算特征点描述信息。
具体区域大小:
n=1/pow(2.0,o);
width=1*(pt2.x-pt1.x);
&nbs
具体区域大小:
n=1/pow(2.0,o);
width=1*(pt2.x-pt1.x);
&nbs

该博客介绍了基于SIFT特征的动态场景小目标跟踪算法。首先,通过初始检测获取目标的坐标和特征点。接着,在下一帧中扩大目标区域,计算新的特征点。然后,利用kd树进行特征匹配,更新目标位置。最后,更新目标位置信息并绘制跟踪框,重复步骤直至达到预设帧数。
最低0.47元/天 解锁文章
1402

被折叠的 条评论
为什么被折叠?



