视觉里程计这一部分的第一个主要内容是ORB特征点的提取与匹配。这里主要关注两个内容:
(1)特征点的匹配方法及代码实现
(2)ORB特征点的BRIEF描述子如何实现旋转不变性及在示例代码中的体现
1.ORB特征点匹配方法
高博在十四讲P158提到:特征匹配解决了SLAM中的数据关联问题,最简单的特征匹配方法就是暴力匹配(Brute Matcher),此外快速近似最近邻(FLANN)算法更加适合于匹配点数量极多的情况。然而在第七章的示例代码orb_cv.cpp中所使用的并不是这两种方法之一。代码如下:
//方法一:DescriptorMatcher 查询和训练
vector<DMatch> matches;
t1 = chrono::steady_clock::now();
matcher->match(descriptors_1, descriptors_2, matches);
t2 = chrono::steady_clock::now();
time_used = chrono::duration_cast<chrono::duration<double>>(t2 - t1);
// 方法一优化:
// 计算最小距离和最大距离
auto min_max = minmax_element(matches.begin(), matches.end(),
[](const DMatch &m1, const DMatch &m2) { return m1.distance < m2.distance; });
double min_dist = min_max.first->distance;
double max_dist = min_max.second->distance;
//当描述子之间的距离大于两倍的最小距离时,即认为匹配有误.但有时候最小距离会非常小,设置一个经验值30作为下限.
std::vector<DMatch> good_matches;
for (int i = 0; i < descriptors_1.rows; i++) {
if (matches[i].distance <= max(2 * min_dist, 30.0)) {
good_matches.push_back(matches[i]);
}
}
此方法将两张图像提取到的特征点分别称为“查询描述子集合”和“训练描述子集合”,匹配方法是在训练描述子集合中寻找与查询描述子集合中每个描述子最佳匹配的一个描述子。在此基础上手动添加一步优化算法,限定hamming距离的上限,排除误差较大的匹配结果。
此外,OpenCV还封装了多种不同的特征匹配方法,包括暴力匹配、FLANN匹配、RANSAC优化特征点匹配。这里分别尝试一下书中提到的两种方法。
暴力匹配方法代码如下:
//方法二:暴力匹配法 BFMatcher
//开启交叉检测
BFMatcher matcher_BF(NORM_HAMMING,1);
vector<DMatch> matches_BF;
vector<DMatch> good_matches_BF;
matcher_BF.match(descriptors_1, descriptors_2, matches_BF);
//方法二优化:
auto min_max_BF = minmax_el