下面利用OpenCV提取图像的SURF描述子并进行匹配的程序和运行结果:
#include <stdio.h>
#include "opencv2/core/core.hpp"
#include "opencv2/features2d/features2d.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/nonfree/nonfree.hpp"
using namespace cv;
int main()
{
Mat img1 = imread("G01.bmp", CV_LOAD_IMAGE_GRAYSCALE);
Mat img2 = imread("G02.bmp", CV_LOAD_IMAGE_GRAYSCALE);
if(img1.empty() || img2.empty())
{
printf("Can't read one of the images\n");
return -1;
}
// 检测SURF特征点
SurfFeatureDetector detector(400);
vector<KeyPoint> keypoints1, keypoints2;
detector.detect(img1, keypoints1);
detector.detect(img2, keypoints2);
// 生成SURF描述子
SurfDescriptorExtractor extractor;
Mat descriptors1, descriptors2;
extractor.compute(img1, keypoints1, descriptors1);
extractor.compute(img2, keypoints2, descriptors2);
// 描述子匹配
BFMatcher matcher(NORM_L2);
vector<DMatch> matches;
matcher.match(descriptors1, descriptors2, matches);
// 结果显示
namedWindow("matches", 1);
Mat img_matches;
drawMatches(img1, keypoints1, img2, keypoints2, matches, img_matches);
imshow("matches", img_matches);
waitKey(0);
return 0;
}
运行结果如下:
匹配结果:
首先,读取两幅图像并判断是否读取成功:
Mat img1 = imread("G01.bmp", CV_LOAD_IMAGE_GRAYSCALE);
Mat img2 = imread("G02.bmp", CV_LOAD_IMAGE_GRAYSCALE);
if(img1.empty() || img2.empty())
{
printf("Can't read one of the images\n");
return -1;
}
接下来是特征点检测:
// 检测SURF特征点
SurfFeatureDetector detector(400);
vector<KeyPoint> keypoints1, keypoints2;
detector.detect(img1, keypoints1);
detector.detect(img2, keypoints2);
首先,实例化一个特征点检测器。所有特征点检测器均派生自抽象基类FeatureDetector,但构造函数依赖于算法。每个检测器的第一个参数通常用来控制特征点数量与稳定性之间的平衡。不同的特征点检测器的取值范围是不同的。SURF阈值应用于Hessian图像,其检测器的第一个参数的取值通常需要大于100。
下面实例化一个SURF描述子提取实例:
// 生成SURF描述子
SurfDescriptorExtractor extractor;
Mat descriptors1, descriptors2;
extractor.compute(img1, keypoints1, descriptors1);
extractor.compute(img2, keypoints2, descriptors2);
大多数OpenCV描述子继承自DescriptorExtractor抽象接口。然后计算每个特征点的描述子。DescriptorExtractor::compute的输出Mat的第i行含有第i个特征点的描述子。值得注意的是,该方法可通过删除没有定义描述子的特征点(接近图像边界的特征点)修改特征点向量。该方法保证了输出的特征点和描述子是一致的(特征点的数目等于描述符的行数)。
经过如上处理后,即得到图像特征点描述子,下面对描述子进行匹配:
// 描述子匹配
BFMatcher matcher(NORM_L2);
vector<DMatch> matches;
matcher.match(descriptors1, descriptors2, matches);
首先,为图像2的每一个描述子创建一个匹配器,并从图像1采用欧氏度量穷举搜索最近的描述符。输出向量matches包含成对的相应点的索引。
最后,是关于匹配结果的可视化:
// 结果显示
namedWindow("matches", 1);
Mat img_matches;
drawMatches(img1, keypoints1, img2, keypoints2, matches, img_matches);
imshow("matches", img_matches);
waitKey(0);