《视觉slam十四讲》之第7讲-实践特征提取与匹配

《视觉slam十四讲》之第7讲-实践特征提取与匹配

备注:该实例中使用的是opencv2.x, 对于使用opencv3.x, 函数可能不太一样

实例

#include <iostream>
#include <opencv2/core/core.hpp>
#include <opencv2/features2d/features2d.hpp>
#include <opencv2/highgui/highgui.hpp>

using namespace std;
using namespace cv;

int main ( int argc, char** argv )
{
    if ( argc != 3 )
    {
        cout<<"usage: feature_extraction img1 img2"<<endl;
        return 1;
    }
    //-- 读取图像
    Mat img_1 = imread ( argv[1], CV_LOAD_IMAGE_COLOR );
    Mat img_2 = imread ( argv[2], CV_LOAD_IMAGE_COLOR );

    //-- 初始化
    std::vector<KeyPoint> keypoints_1, keypoints_2;
    Mat descriptors_1, descriptors_2;
    Ptr<FeatureDetector> detector = ORB::create();
    Ptr<DescriptorExtractor> descriptor = ORB::create();
    // Ptr<FeatureDetector> detector = FeatureDetector::create(detector_name);
    // Ptr<DescriptorExtractor> descriptor = DescriptorExtractor::create(descriptor_name);
    Ptr<DescriptorMatcher> matcher  = DescriptorMatcher::create ( "BruteForce-Hamming" );

    //-- 第一步:检测 Oriented FAST 角点位置
    detector->detect ( img_1,keypoints_1 );
    detector->detect ( img_2,keypoints_2 );

    //-- 第二步:根据角点位置计算 BRIEF 描述子
    descriptor->compute ( img_1, keypoints_1, descriptors_1 );
    descriptor->compute ( img_2, keypoints_2, descriptors_2 );

    Mat outimg1;
    drawKeypoints( img_1, keypoints_1, outimg1, Scalar::all(-1), DrawMatchesFlags::DEFAULT );
    imshow("ORB特征点",outimg1);

    //-- 第三步:对两幅图像中的BRIEF描述子进行匹配,使用 Hamming 距离
    vector<DMatch> matches;
    //BFMatcher matcher ( NORM_HAMMING );
    matcher->match ( descriptors_1, descriptors_2, matches );

    //-- 第四步:匹配点对筛选
    double min_dist=10000, max_dist=0;

    //找出所有匹配之间的最小距离和最大距离, 即是最相似的和最不相似的两组点之间的距离
    for ( int i = 0; i < descriptors_1.rows; i++ )
    {
        double dist = matches[i].distance;
        if ( dist < min_dist ) min_dist = dist;
        if ( dist > max_dist ) max_dist = dist;
    }
    
    // 仅供娱乐的写法
    min_dist = min_element( matches.begin(), matches.end(), [](const DMatch& m1, const DMatch& m2) {return m1.distance<m2.distance;} )->distance;
    max_dist = max_element( matches.begin(), matches.end(), [](const DMatch& m1, const DMatch& m2) {return m1.distance<m2.distance;} )->distance;

    printf ( "-- Max dist : %f \n", max_dist );
    printf ( "-- Min dist : %f \n", min_dist );

    //当描述子之间的距离大于两倍的最小距离时,即认为匹配有误.但有时候最小距离会非常小,设置一个经验值30作为下限.
    std::vector< DMatch > good_matches;
    for ( int i = 0; i < descriptors_1.rows; i++ )
    {
        if ( matches[i].distance <= max ( 2*min_dist, 30.0 ) )
        {
            good_matches.push_back ( matches[i] );
        }
    }

    //-- 第五步:绘制匹配结果
    Mat img_match;
    Mat img_goodmatch;
    drawMatches ( img_1, keypoints_1, img_2, keypoints_2, matches, img_match );
    drawMatches ( img_1, keypoints_1, img_2, keypoints_2, good_matches, img_goodmatch );
    imshow ( "所有匹配点对", img_match );
    imshow ( "优化后匹配点对", img_goodmatch );
    waitKey(0);

    return 0;
}

小笔记:

  1. 检测角点
  2. 计算描述子
  3. 特征匹配
  4. 误匹配剔除

转载于:https://www.cnblogs.com/ChrisCoder/p/10083102.html

### 视觉SLAM中的特征匹配实现 在视觉同步定位建图(SLAM)系统中,特征匹配扮演着至关重要的角色。为了确保系统的稳定性和精度,在复杂环境中获取可靠的对应关系成为研究的重点之一。 #### ORB特征描述子及其改进 ORB(oriented FAST and rotated BRIEF)是一种高效的局部特征检测器和描述子组合方式[^1]。它不仅继承了FAST角点检测的速度优势以及BRIEF二进制字符串描述子的紧凑特性,还加入了方向估计来增强旋转不变性。然而面对更具挑战性的场景时,传统ORB可能存在不足之处。 针对上述局限性,有学者提出了KTGP-ORB这一新型特征匹配技术[^2]。此方法首先依据ORB特征描述符计算汉明距离完成初步配对;随后加入局部几何一致性检验环节减少异常值干扰;最后借助全局模型筛选最优解集。具体流程如下: 1. **初始匹配**:基于ORB特征向量间的汉明距离寻找潜在对应的像素位置; 2. **局部优化**:应用GMS(grid-based motion statistics)滤波机制去除不符合邻域结构假设的关系对; 3. **全局调整**:运用PROSAC(progressive sample consensus)迭代求精过程进一步剔除非真实关联并修正剩余样本权重分布情况。 ```python import cv2 import numpy as np def KTGP_ORB_match(img1, img2): orb = cv2.ORB_create() kp1, des1 = orb.detectAndCompute(img1,None) kp2, des2 = orb.detectAndCompute(img2,None) bf = cv2.BFMatcher(cv2.NORM_HAMMING,crossCheck=True) matches = bf.match(des1,des2) # Apply GMS filtering here... good_matches = [] # After applying GMS # Use PROSAC for final refinement... return good_matches ``` 通过这种方式可以在保持原有算法效率的同时大幅度改善识别效果特别是在光照变化剧烈或者存在大量重复纹理区域的情况下表现出色。 #### 错误匹配消除策略 考虑到实际应用场景中不可避免会出现一些错误匹配的情况,有必要采取额外措施加以处理。一种常见做法是利用RANSAC(random sample consensus)[^4]随机抽样一致算法反复测试候选集合直至找到最可能代表两幅图片间真正变换矩阵的那一组数据点。除此之外还可以考虑根据特征点的方向信息建立直方图统计规律从而直观地区分正常异常实例之间的差异。 综上所述,现代视觉SLAM系统往往综合多种手段力求达到更高的鲁棒性和精确度水平。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值