本文主要记录一下比较基础的内容:RANSAC原理及OpenCV相关源代码
RANSAC
-
RANSAC的基础内容:以下内容来源于:1
RANSAC是“RANdom SAmple Consensus(随机抽样一致)”的缩写。它可以从一组包含“局外点”的观测数据集中,通过迭代方式估计数学模型的参数。它是一种不确定的算法——它有一定的概率得出一个合理的结果;为了提高概率必须提高迭代次数。-
RANSAC的基本假设是:
(1)数据由“局内点”组成,例如:数据的分布可以用一些模型参数来解释;
(2)“局外点”是不能适应该模型的数据;
(3)除此之外的数据属于噪声。 -
局外点产生的原因有:噪声的极值;错误的测量方法;对数据的错误假设。
RANSAC也做了以下假设:给定一组(通常很小的)局内点,存在一个可以估计模型参数的过程;而该模型能够解释或者适用于局内点 -
RANSAC与最小二乘法的区别:简单的最小二乘法不能找到适应于inliers的直线,因为最小二乘法尽量去适应包括outliers在内的所有点。但是RANSAC可以得到一个仅仅用inliers计算出的模型,且概率较高。但是,RANSAC并不能保证结果一定正确,为了保证算法有足够高的合理概率,必须小心的选择算法的参数
-
概述:RANSAC算法的输入是一组观测数据,一个可以解释或者适应于观测数据的参数化模型,一些可信的参数(这里的参数包括:适用于模型的最少数据个数;算法的迭代次数;用于决定数据是否适用于模型的阈值;判定模型是否适用于数据集的数据数目)
(给出了迭代次数的计算方法,但是阈值和数据数目依赖于数据集,仅能针对特定的问题和数据集通过实验来确定)。
RANSAC通过反复选择数据中的一组随机子集来达成目标。被选取的子集被假设为局内点,并用下述方法进行验证:
1.有一个模型适应于假设的局内点,即所有的未知参数都能从假设的局内点计算得出。
2.用1中得到的模型去测试所有的其它数据,如果某个点适用于估计的模型,认为它也是局内点。
3.如果有足够多的点被归类为假设的局内点,那么估计的模型就足够合理。
4.然后,用所有假设的局内点去重新估计模型,因为它仅仅被初始的假设局内点估计过。
5.最后,通过估计局内点与模型的错误率来评估模型。
这个过程被重复执行固定的次数,每次产生的模型要么因为局内点太少而被舍弃,要么因为比现有的模型更好而被选用。 -
其中,核心是随机性和假设性:随机性用于减少计算。假设性,是指随机抽出来的数据都认为是正确的,并以此去计算其他点,获得其他满足变换关系的点,然后利用投票机制,选出获票最多的那一个变换。
-
优点与缺点
RANSAC的优点是它能鲁棒的估计模型参数。例如,它能从包含大量局外点的数据集中估计出高精度的参数
RANSAC的缺点是它计算参数的迭代次数没有上限;如果设置迭代次数的上限,得到的结果可能不是最优的结果,甚至可能得到错误的结果。RANSAC只有一定的概率得到可信的模型,概率与迭代次数成正比。RANSAC的另一个缺点是它要求设置跟问题相关的阀值。
RANSAC只能从特定的数据集中估计出一个模型,如果存在两个(或多个)模型,RANSAC不能找到别的模型。
-
-
OpenCV中的实现
-
涉及到了下述几个类:
- PnPRansacCallback:这个类里面包含runKernel() 和computeError() 两个函数,前者用于根据已知的点并使用PnP方法求解得对应的模型矩阵,返回得到的模型的数目;后者用于计算重投影误差
- RANSACPointSetRegistrator:这个类里面包含findInliers(),getSubset()和run()函数。findInliers() 里面,根据绑定的callback计算得到的重投影误差
-