学习OpenCV——通过KeyPoints进行目标定位

本文介绍了如何利用OpenCV中的ORB特征点和描述子进行目标定位,包括特征点检测、相机图像处理、匹配优化、单应性变换矩阵计算以及最终的目标定位。虽然SIFT和SURF效果更佳,但可能涉及商业使用限制。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目前的AR应用基本都是基于marker的比较多,但是不依靠marker首先要完成的定位工作。这篇文章主要描述,使用特征点进行检测和定位的问题(其中包含一些matching优化方式,具体请参考:学习OpenCV——KeyPoint Matching 优化方式)。

本篇采用ORB特征点和ORB特征描述子(可以采用SIFT或SURF特征,效果更好,但是OpenCV官方什么提过,SIFT和SURF不能用于商业用途,使用前需声明initModule_nonfree();且速度会慢一些

  效果 FPS
SIFT 检测效果:优,尺度不变性:优,旋转不变性:优 5.5
SURF 检测效果:良,尺度不变性:良,旋转不变性:良 11.0
ORB 检测效果:差,尺度不变性:差,旋转不变性:良 30.0

步骤:

1. 目标图特征点检测和描述子计算;

2. 打开camera采集图像,并计算特征点及描述子;

3. 进行特征点匹配,采用KNN或Cross-check方式;

4. 寻找单应性变换矩阵,并通过单应性变换矩阵进行进一步优化,去除伪匹配;

5. 通过单应性变换矩阵进行目标定位。

### 如何使用Python和OpenCV实现视觉定位 #### 图像预处理 为了提高后续特征提取的效果,在进行视觉定位之前通常需要对输入图像做一定的预处理工作。这可能涉及到灰度化转换、噪声去除以及对比度增强等操作[^2]。 ```python import cv2 import numpy as np def preprocess_image(image_path): # 加载图片并转为灰度图 image = cv2.imread(image_path) gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) # 应用高斯模糊减少噪音 blurred = cv2.GaussianBlur(gray, (5, 5), 0) return blurred ``` #### 特征点检测与描述符计算 采用SIFT或ORB这样的局部不变量特征来捕捉物体的关键位置信息是非常有效的手段之一。这些方法能够找到图像中的显著区域,并为其创建独特的描述向量,从而使得即使是在不同视角下拍摄的照片也能被正确匹配起来。 ```python def detect_features(processed_img): orb = cv2.ORB_create() keypoints, descriptors = orb.detectAndCompute(processed_img, None) return keypoints, descriptors ``` #### 描述符匹配 一旦获得了待定场景内的兴趣点及其对应的描述子之后,就可以利用FLANN或其他快速近似最近邻搜索算法来进行两幅或多幅图像之间的相似性比较。此过程会返回一系列最佳配对关系,进而帮助确定目标物的空间方位。 ```python def match_descriptors(des1, des2): flann_index_kdtree = 1 index_params = dict(algorithm=flann_index_kdtree, trees=5) search_params = dict(checks=50) # 或者设置为 {'checks': 10} flann = cv2.FlannBasedMatcher(index_params,search_params) matches = flann.knnMatch(des1,des2,k=2) good_matches = [] for m,n in matches: if m.distance < 0.7*n.distance: good_matches.append(m) return good_matches ``` #### 计算单应矩阵(Homography Matrix) 当有足够的良好匹配时,可以进一步估计两个视图间的几何变换——即所谓的单应矩阵H。该矩阵可用于映射一个平面到另一个平面上的对象坐标系,最终完成精确定位的任务。 ```python MIN_MATCH_COUNT = 10 def find_homography(kp1, kp2, matches): if len(matches)>MIN_MATCH_COUNT: src_pts = np.float32([kp1[m.queryIdx].pt for m in matches]).reshape(-1,1,2) dst_pts = np.float32([kp2[m.trainIdx].pt for m in matches]).reshape(-1,1,2) M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC,5.0) return M else: raise ValueError(f"Not enough matches are found - {len(matches)} / {MIN_MATCH_COUNT}") ``` 通过上述流程,可以有效地运用Python结合OpenCV库执行基本的视觉定位任务。当然,具体应用场景可能会有所不同,因此还需要针对特定需求调整参数配置或是引入额外的技术环节以优化性能表现。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值