吐血整理:从相机模型(针孔、鱼眼、全景)到OpenCV源码实现

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

今天自动驾驶之心很荣幸邀请到Zeal来分享从相机模型到OpenCV源码实现,吐血汇总!如果您有相关工作需要分享,请在文末联系我们!

>>点击进入→自动驾驶之心【多传感器融合】技术交流群               

自动驾驶之心原创 · 作者 | Zeal

编辑 | 自动驾驶之心

本文内容

本文旨在较为直观地介绍相机成像背后的数学模型,主要的章节组织如下:

  1. 第一章用最简单的针孔投影模型为例讲解一个三维点是如何映射到图像中的一个像素

  2. 第二章介绍除了针孔投影模型外其他一些经典投影模型,旨在让读者建立不同投影模型之间的建模过程

  3. 第三章介绍如何把不同的投影模型用一个统一的投影过程表达

  4. 第四章进一步补充第三章的统一投影模型,并介绍畸变的定义和去畸变的原理

  5. 第五章针对全景相机的基本概念和两种应用广泛的全景相机模型做出介绍

  6. 第六章用代码示例介绍如何使用OpenCV的接口对图像去畸变

一、相机是如何成像的?

祭上一张经典图

8b862fc151fbb5b1a63cb850b2a61b65.png

一个三维空间中的点怎样映射到图片上的一个像素?

我们从一个最简单的问题开始:一个三维空间中的点是如何经过相机成像变为图像上的一个像素的?

我们最常见的投影模型Perspective Projection Model 描述的就是针孔相机 的成像原理。从上面的图根据相似三角形可以得出

其中为光轴在图像中的坐标,如果相机的光轴与感光元器件完全对齐的话,, 是图像的宽度(单位是像素)

从上面的关系可以得出,将一个三维点投影到像素坐标系的时候,可以直接使用下面的公式。对应的就是针孔相机模型。下标 表示这个点是在相机坐标系下的点

公式(1-2)在代码中也经常对分开进行计算

当然,为了简化记号,公式(1-2)也通常记为矩阵相乘的形式

如果我们提前对做归一化处理,也就是除以(假设点位于相机前,即),则可以去掉系数,即如下形式:

公式(1-4)中位于的平面,又叫归一化平面(nomalized plane),后文会再次讲到这个平面。

公式(1-2)到公式(1-5)其实都是等价的

如果给的三维点是在世界坐标系下,也就是,那么我们只需要先把该点用相机的外参转换到相机坐标系下(刚性变换)即可:

由于刚性变换过程不影响对相机投影模型的讨论,因此后面都假设三维点是处于相机坐标系

相机坐标系

在OpenCV中以及大部分视觉处理库中,相机坐标系的规定都与上述的图一致,就是相机光轴往前为,图像水平往右为,图像垂直往下为。不过要注意的是在一些仿真渲染器或者特定任务的数据集中可能会规定图像垂直往上为,前为,朝左为,但是这一点是无关紧要的,这一点差别可以反映在相机的外参里,也就是公式(1-6)中的,只要按照OpenCV的方式规定相机坐标系,总是可以找到一个外参矩阵将世界坐标系下的点变换到相机坐标系(前右下)

大白话总结

问:相机是如何成像的?答:光束从物体表面反射,经过相机镜头,到达感光原件,这一系列物理过程可以通过数学公式表达,最终变成一个简单的矩阵操作将三维空间中的点对应到图片的一个像素。

二、不同的相机投影模型

第一节介绍的是针孔投影模型,但是事实上相机镜头都是多种多样的,不可能都是符合针孔投影模型。本节会介绍经典的相机投影模型,并从直观感受和形式化定义上介绍不同的投影模型是如何联系在一起的

什么是相机投影模型

相机投影模型用数学的方式描述了一个真实世界中的三维点到图像上像素坐标的映射关系

相机投影模型实际上就是对相机成像过程(物理)的数学建模。建模的目的是为了能够尽量符合真实的成像过程。不同的建模方式就对应不同的相机投影模型

经典的相机投影模型

我们回头看看公式(1-3),并暂时只关注轴的映射关系

上式中称为相机焦距,反应了一个单位长度应该映射为几个像素,单位是,是相机坐标系(以光轴点为原点)到图像坐标系(以左上角为原点),这两个参数都是相机的固有参数。而上式轴刚好是点到相机光心连线与光轴角度的正切值,我们记光束与光轴的夹角为,并将图片原点移动到图片中心,则公式(1-3)可以写为

上式的示意图如下(图中的在只考虑轴的时候就是):

cc915850cec76bb97dbff0342a3e065b.png

在公式(2-1)中,轴的投影坐标是的函数,于是,我们是否可以用不同的函数表达这个过程?答案是肯定的!不同的函数就对应了不同的投影模型。下图就给出了在经典投影模型中对的不同映射方式

4a9a9cfa4b99b80cfb2ffcdfe4e9680a.png

事实上,作为相机的焦距,在上图中的不同投影模型都统一出现,于是我们可以舍弃焦距符号。于是,上图中不同的函数关系与投影模型的对应关系如下:

  • ,perspective projection/针孔投影模型/rectilinear model

  • , stereographic projection

  • , equidistant projection

  • , sine-law projection

  • , equi-solid angle projection

上面两幅图出自:Models for the various classical lens projections,这篇文章比较形象地介绍各种经典的相机投影模型,并给出他们的函数曲线分析。不过总体偏形象化,没有引入更形式化的描述。

三、相机投影模型的统一表达形式

上一节我们将投影关系限制在轴,并且给出了较为直观的图示。目的在于两个:1)给读者建立更深刻的相机投影过程;2)让读者对几种经典的投影模型有初步的直观了解。在这一小节中,我们给出更为统一的相机投影表达方式,同时为后文讨论相机的畸变 建立必要的理论基础。

我们将相机的投影过程拆分为三个过程:1)将空间中的点投影到单位球表面;2)将单位球上的点投影到归一化平面;3)将归一化平面上的点利用针孔模型投影到图像坐标系。下面详细介绍这几个过程

单位球投影

想象一下一束光束从相机光心射出,经过图像中的一个像素然后往外无限延伸,可以想象到,这个光束经过的任何点到图像的投影都是经过的那个像素。这个简单的事实告诉我们,我们可以对一个三维点进行任意的放缩,其在图像上的成像点都不会改变。于是,我们将三维点除以它自身的膜,将其投影到一个单位球,其投影坐标为

示意图如下:

370877356ecdca35d484fbd3dbebbfb1.png

在上图中,是光束与光轴的夹角,为光束与水平轴的夹角。

两个角度有如下关系:

之所以构建和是因为,我们后续可以将投影过程建立为这两个角度的函数,也就是只与光束的角度有关,而与具体的点坐标无关,这也是符合直观的。

另外,从前面的叙述以及常识,我们知道针孔成像结果是一个倒立的像,为了方便叙述,我们可以将相机做一个镜像,如下图所示:

01835a537b07e912e42e0423b7f77ca2.png

这个单位球有时候又叫视球(Viewing Sphere)

归一化平面&&模型平面

将世界坐标系的点投影到单位球后,我们进一步将其映射到的平面上,这个平面又叫归一化平面(Normalized Plane)。此时不同的投影模型会对在归一化平面上的点到原点的连线做放缩,为了后文叙述的统一性,我们再拆分出一个模型平面。在归一化平面上的点只是与光心点的连线和平面的交点,即:

在模型平面上(Model Plane),对归一化平面上的点做半径放缩,即

这两个平面的变换过程如下图所示

64e083b300d04dfb139547cf17e44178.png

从第二节中经典的投影模型我们发现,其实不同的投影模型都没有对产生影响,而是对投影点到原点的距离建立不同的函数形式

稍后我们会看到,为了能够将所有模型都统一为针孔投影模型,会将模型平面变为畸变平面,用更具有一般性的多项式代替前面的表达形式。(因此,现在模型平面上的点用下标标明,表示distortion)

透视变换

得到模型平面上的坐标后,我们可以用相机内参将其变换到图像平面,这个步骤实际上就只是坐标的变换了。

最后,我们可以得到一张完整地表达相机投影模型的示意图:

d5d91eab306b181fceb11de4ca245325.png

将针孔投影带入上述统一模型

我们可以将针孔模型,即代入上面的模型,联立公式(3-1)-(3-5),最后可以发现,公式(3-5)的结果其实就是公式(1-3),也就是针孔投影模型的公式。这个过程比较简单,就不再展开公式。读者自己推导一下这个过程非常有利于理解上述的过程。

不同投影模型的函数图

我们可以将不同的经典投影模型的函数画出来(横轴为,纵轴为),结果如下

a40f0dfb4c53b151b82c3b18b676490e.png

从上图我们应该至少要观察到一个重要的事实:针孔投影模型无法对的视野成像。因为在90度的时候会趋于无穷大。实际上,从上面的函数图可以看到,针孔投影模型只能在大约水平140度以内的视野成像

相机投影模型总结

到目前位置,我们应该建立至少以下几个方面的认识:

  1. 统一化的投影模型经过:单位球投影->归一化平面->透视变换几个过程,将一个三维点投影到图像上的像素

  2. 不同的经典投影模型在投影过程中不会改变光束与轴的夹角,只是对像素到图像原点的距离建立不同的方程

四、相机的畸变

针孔模型的优越性

首先描述一下我们人类直观上对于“标准的图像”这个词的一个感性认识,是不是我们会觉得横平竖直,真实中是直线则图像中也是直线,这样的图片会比较“标准”?事实上,针孔投影模型就刚好具有这样的性质。这个性质也可以从其投影方程看出来。经过针孔成像的物体,好像就是把整个物体缩小放在图片上,因此圆是圆,直线是直线。而其他投影模型就可能会呈现膨胀、紧缩的成像效果。如下图

381f9d039ebc4c17a9392697f14f8cf8.png

定义

“畸变”这个词从词语上应该理解成由于镜头加工等因素造成镜头与投影模型的差异。但实际上,相机畸变现在描述的是相机成像过程与针孔投影模型的差异(a deviation from the pinhole model) ,也就是:针孔投影+畸变模型=实际成像

而“去畸变”则是使用畸变模型对图像进行逆操作,使得图像就像用针孔投影模型成像出来的一样。

在归一化平面插入畸变模型

为了能够利用针孔模型的性质,我们在前文给出的统一相机投影模型中将模型平面用畸变平面代替。这里的核心思想是,用一个更具一般性的多项式替代各个投影模型中的模型函数,以此达到用一个方程表达多个投影模型的目的。

替换后的示意图如图所示:

67cfcb925e7c3d4e4c4fbb212b817a3c.png

注意上图与上一节最后的统一投影模型其实是一样的,不过Model Plane名字换成Distortion Plane

我们这一节采用OpenCV实现的畸变模型来讲解畸变过程

我们还是先将点投影到归一化平面得到,并令其到原点的半径为

径向畸变(Radial Distortion)

所谓的径向畸变(Radial Distortion)就是指只对点做半径上的伸缩变化,这一点其实就跟经典投影模型一样用一个函数建立半径的变化,在OpenCV中,标准镜头的径向畸变可以用如下方程表达:

径向畸变对于环绕光轴一周的改变是一致的,因此也叫做半径对称畸变(Radial Symmetric Distortion)或者畸变的对称部分(Symmetric Part Of Distortion Model)

切向畸变(Tangential Distortion)

真实的镜头由于加工误差和安装误差,会导致镜头与感光原件的中心不是完全对齐的,因此在平行的方向上会与标准的针孔成像模型有差异,这种差异对于光轴不是旋转对称的,也叫做切向畸变(Tangential Distortion)

OpenCV中镜头的切向畸变方程如下:

公式(4-1)和公式(4-2)中的叫做畸变参数(Distortion Coefficients)

去畸变

有了畸变模型之后,我们就可以将一个三维点经过:单位球投影->归一化平面投影->畸变模型->透视变换,得到该点在图像中的像素位置。我们可以通过一些标定物,经过求解得到上述的畸变系数,进而得到畸变过程的反过程。我们将图像上的点先经过透视变换的反变换得到在畸变平面上的点,再经过畸变过程的反过程,再投回图像中,这样我们就得到一副没有畸变的图像,其看起来就像是用完全标准的针孔投影模型成像的照片。

下面的图片展示了从畸变到去畸变的图像变化

deb206d99486e7caf1f47e04495393e0.png

做完去畸变后,整个的成像过程就像直接用针孔投影模型(公式1-3)成像一般,就像下图一样。

370661613431d4f4e08f706f5f3d5f1b.png

提出畸变模型的文章需要给出如何标定出畸变参数,同时如何计算从畸变点到非畸变点,这里面主要是一些数学求解,这里就不展开讨论,有兴趣的可以看看wiki:Distortion

五、全景相机(Omidirectional Camera)

所谓的全景相机广泛概念上指成像角度能够大于等于180度的相机,他们看起来大概像是下面这样

79089fe573df82d5655fca22574e0b53.png

从第二节(不同的相机投影模型)我们可以知道,根据针孔投影模型设计出的镜头无法对大于等于90度(左右)的视野成像,通常由于进光量等问题,这类相机一般只有140度左右的成像视野。

一般的畸变模型的设计以针孔相机模型为基础,通过参数模型修正真实的成像与针孔成像的差异,因为在很多的应用中我们希望能够通过“去畸变”的方式,将图片变成“直线还是直线(Straight lines are straight),在KannalaBrandt论文中是这样描述的:

It is impossible to project the hemispherical field of view on a finite image plane by a perspective projection so fish-eye lenses are designed to obey some other projection model.This is the reason why the inherent distortion of a  fish-eye lens should not be considered only as a deviation from the pinhole model

于是,就有很多专门针对全景相机(Omidirection Camera/Fisheye Camera/Wide-Angle camera)的建模研究出现。

重新理清一下我们的目的:

  1. 拥有一种统一的表达方式能够尽量拟合真实的全景相机的成像过程

  2. 这种表达方式应该简洁有效

  3. 能够对模型的参数求解,并将图像通过“去畸变”变成像是由针孔相机拍摄出来的横平竖直的图像

OpenCV中针对全景相机的标定和去畸变给出了两种实现

  1. KannalaBrandt模型.对应实现OpenCV::Fisheye

  2. CMei模型. 对应实现OpenCV::Omnidir

下面简单介绍这两种模型

KannalaBrandt模型

第一步还是先将点投影到单位球模型,这样我们就得出了两个角度,后续的畸变模型就是关于这两个角度的函数

这里这里摘录OpenCV的描述方式OpenCV_Fisheye,相比于论文,在模型参数上简化了很多

KannalaBrandt模型使用一个多项式描述径向畸变(畸变的对称部分)

径向畸变后坐标变为:

最后再进行非对称畸变

最后再经过公式(3-5)变换到图像坐标系

CMei模型

CMei模型相比于其他模型有一个较大不同之处在于在从单位球投影到归一化平面时将相机光心往后移动了距离,总体的投影过程如下图:

4f7f0cbfb3a0c0da4c218f0d6dd657b9.png

上图出自引用CMei的一篇论文:Design and Calibration of an Omni-RGB+D Camera

六、代码实例

实例一:针孔投影模型去畸变

# undistort image
h,  w = img.shape[:2]
newcameramtx, roi = cv2.getOptimalNewCameraMatrix(K, distortions, (w,h), alpha, (w,h))
undistorted_img = cv2.undistort(img, K, distortions, None, newcameramtx)
x, y, w, h = roi
undistorted_img = undistorted_img[y:y+h, x:x+w]

# undistort image points
if points2d.ndim == 2:
    points2d = points2d[:, None, :]
undistorted_points = cv2.undistortPoints(points2d, K, distortions, P=K)
undistorted_points = undistorted_points.reshape(-1, 2)

实例二:CMei模型去畸变

# undistort image
if newK:
        K_new = np.zeros((3,3), np.float64)
        h,w = img.shape[:2]
        K_new[0, 0] = w/4
        K_new[0, 2] = w/2
        K_new[1, 1] = h/4
        K_new[1, 2] = h/2
        K_new[2, 2] = 1.0
else:
        K_new = None
undistorted_img = cv2.omnidir.undistortImage(
img, K, distortions, Xi, cv2.omnidir.RECTIFY_PERSPECTIVE, Knew=K_new)

# undistort image points
if points2d.ndim == 2:
    points2d = points2d[:, None, :]
undistorted_points = cv2.omnidir.undistortPoints(points2d, K, distortions, Xi, None)
undistorted_points = undistorted_points.squeeze()

f0 = K_new[0,0]
f1 = K_new[1,1]
c0 = K_new[0,2]
c1 = K_new[1,2]

undistorted_points[:, 0] = f0* undistorted_points[:, 0] + c0
undistorted_points[:, 1] = f1 * undistorted_points[:, 1] + c1

PS:cv2::omnidir::undisortPoints的旧版本有bug,参考这个issue。omnidir空间目前还没有成为opencv的正式稳定接口,因此维护在opencv-contrib-python包中,最新的包(4.6.x)已经修复了bug。一定要检查一下是不是有那个bug!!!!

实例三:KannalaBrandt模型去畸变

# You should replace these 3 lines with the output in calibration step
DIM=XXX
K=np.array(YYY)
D=np.array(ZZZ)
def undistort(img_path):
    img = cv2.imread(img_path)
    h,w = img.shape[:2]
    map1, map2 = cv2.fisheye.initUndistortRectifyMap(K, D, np.eye(3), K, DIM, cv2.CV_16SC2)
    undistorted_img = cv2.remap(img, map1, map2, interpolation=cv2.INTER_LINEAR, borderMode=cv2.BORDER_CONSTANT)
    cv2.imshow("undistorted", undistorted_img)
    cv2.waitKey(0)
    cv2.destroyAllWindows()
if __name__ == '__main__':
    for p in sys.argv[1:]:
        undistort(p)

相机标定方法

最经典的是使用张正友标定法。原文;中文讲解

参考资料

  1. OpenCV:Camera Calibration

  2. OpenCV2.4:Camera Calibration

  3. Models for the various classical lens projections

  4. Wiki:Distortion

  5. KannalaBrandt:A Generic Camera Model and Calibration Method for Conventional, Wide-Angle, and Fish-Eye Lenses

  6. CMei: Single View Point Omnidirectional Camera Calibration from Planar Grids

  7. OpenCV::Fisheye

  8. OpenCV::Omnidir

投稿作者为『自动驾驶之心知识星球』特邀嘉宾,如果您希望分享到自动驾驶之心平台,欢迎联系我们!

(一)视频课程来了!

自动驾驶之心为大家汇集了毫米波雷达视觉融合、高精地图、BEV感知、多传感器标定、传感器部署、自动驾驶协同感知、语义分割、自动驾驶仿真、L4感知、决策规划、轨迹预测等多个方向学习视频,欢迎大家自取(扫码进入学习)

5c9a10b57e3cb87d9318cc1d4794e7a0.png

(扫码学习最新视频)

视频官网:www.zdjszx.com

(二)国内首个自动驾驶学习社区

近1000人的交流社区,和20+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(分类、检测、分割、关键点、车道线、3D目标检测、Occpuancy、多传感器融合、目标跟踪、光流估计、轨迹预测)、自动驾驶定位建图(SLAM、高精地图)、自动驾驶规划控制、领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

21be50eecf2e0c3da94e18207c95e9d3.jpeg

(三)【自动驾驶之心】全栈技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多传感器融合、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向;

575187b2120ecb195dcae203ffabdf99.jpeg

添加汽车人助理微信邀请入群

备注:学校/公司+方向+昵称

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值