视觉SALM十四讲学习笔记——第七讲 视觉里程计(1)

        视觉里程计这一部分的第一个主要内容是ORB特征点的提取与匹配。这里主要关注两个内容:

        (1)特征点的匹配方法及代码实现

        (2)ORB特征点的BRIEF描述子如何实现旋转不变性及在示例代码中的体现

1.ORB特征点匹配方法

        高博在十四讲P158提到:特征匹配解决了SLAM中的数据关联问题,最简单的特征匹配方法就是暴力匹配(Brute Matcher),此外快速近似最近邻(FLANN)算法更加适合于匹配点数量极多的情况。然而在第七章的示例代码orb_cv.cpp中所使用的并不是这两种方法之一。代码如下:

//方法一:DescriptorMatcher 查询和训练
vector<DMatch> matches;
t1 = chrono::steady_clock::now();
matcher->match(descriptors_1, descriptors_2, matches);
t2 = chrono::steady_clock::now();
time_used = chrono::duration_cast<chrono::duration<double>>(t2 - t1);


// 方法一优化:
// 计算最小距离和最大距离
auto min_max = minmax_element(matches.begin(), matches.end(),
                              [](const DMatch &m1, const DMatch &m2) { return m1.distance < m2.distance; });
double min_dist = min_max.first->distance;
double max_dist = min_max.second->distance;

//当描述子之间的距离大于两倍的最小距离时,即认为匹配有误.但有时候最小距离会非常小,设置一个经验值30作为下限.
std::vector<DMatch> good_matches;
for (int i = 0; i < descriptors_1.rows; i++) {
  if (matches[i].distance <= max(2 * min_dist, 30.0)) {
    good_matches.push_back(matches[i]);
  }
}

        此方法将两张图像提取到的特征点分别称为“查询描述子集合”和“训练描述子集合”,匹配方法是在训练描述子集合中寻找与查询描述子集合中每个描述子最佳匹配的一个描述子。在此基础上手动添加一步优化算法,限定hamming距离的上限,排除误差较大的匹配结果。

        此外,OpenCV还封装了多种不同的特征匹配方法,包括暴力匹配、FLANN匹配、RANSAC优化特征点匹配。这里分别尝试一下书中提到的两种方法。

        暴力匹配方法代码如下:

//方法二:暴力匹配法 BFMatcher
//开启交叉检测
BFMatcher matcher_BF(NORM_HAMMING,1);
vector<DMatch> matches_BF;
vector<DMatch> good_matches_BF;
matcher_BF.match(descriptors_1, descriptors_2, matches_BF);
//方法二优化:
auto min_max_BF = minmax_el
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值