像素坐标转到世界坐标时相机坐标系中的Zc值求解

        世界坐标系、相机坐标系、图像坐标系、像素坐标系之间的转换公式参考:世界坐标系、相机坐标系、图像坐标系、像素坐标系之间的转换

        其中图像坐标到世界坐标的转化公式作者讲解的也比较清楚,但是对于Zc的值,作者并没有给出进一步讲解

在这里插入图片描述
        自己项目中有涉及到图像坐标到世界坐标的转化,故这里想写出来供大家参考,如有理解有误,欢迎指正。这里的前提是世界坐标的原点在地面上。

        上述公式可以简写为:
在这里插入图片描述

        进一步:

在这里插入图片描述

        其中 R,K,T均为已知值。将上述等式中的变量做以下改写,方便描述:
在这里插入图片描述

        只观察世界坐标计算公式中等式两边的第三项,则:
在这里插入图片描述
在这里插入图片描述

        其中,Mat2(2,0)表示3×1矩阵的第三项。如果目标物体在地面则Zw=0;如果目标物体有一定高度,则Zw=实际物体高度,求出Zc后即可根据像素坐标求得世界坐标。

       最后贴上2D转3D的计算代码供大家理解:

def 2Dto3Dpts(point2D, rVec, tVec, cameraMat, height):
    """
       Function used to convert given 2D points back to real-world 3D points    
       point2D  : An array of 2D points
       rVec     : Rotation vector
       tVec     : Translation vector
       cameraMat: Camera Matrix used in solvePnP
       height   : Height in real-world 3D space    
       Return   : output_array: Output array of 3D points      
             
    """
    point3D = []
    point2D = (np.array(point2D, dtype='float32')).reshape(-1, 2)
    numPts = point2D.shape[0]
    point2D_op = np.hstack((point2D, np.ones((numPts, 1))))
    rMat = cv2.Rodrigues(rVec)[0]
    rMat_inv = np.linalg.inv(rMat)
    kMat_inv = np.linalg.inv(cameraMat)
    for point in range(numPts):
        uvPoint = point2D_op[point, :].reshape(3, 1)
        tempMat = np.matmul(rMat_inv, kMat_inv)
        tempMat1 = np.matmul(tempMat, uvPoint)
        tempMat2 = np.matmul(rMat_inv, tVec)
        s = (height + tempMat2[2]) / tempMat1[2]
        p = tempMat1 * s - tempMat2
        point3D.append(p)

    point3D = (np.array(point3D, dtype='float32')).reshape([-1, 1, 3])
    return point3D
### 像素坐标转换为世界坐标的计算方法 在计算机视觉领域,尤其是基于 OpenCV 的应用中,将像素坐标转换为世界坐标是一个常见的需。这一过程涉及相机标定、内外参数矩阵以及投影模型的应用。 #### 1. 相机标定基础 为了实现像素坐标世界坐标的转换,首先需要通过相机标定获取相机的 **内参矩阵** 和 **外参矩阵**。 - 内参矩阵 \( K \) 描述了成像平面与像素坐标之间的缩放和平移关系[^2]。 - 外参矩阵由旋转矩阵 \( R \) 和平移向量 \( T \) 组成,描述了世界坐标系与相机坐标系之间的变换关系[^1]。 #### 2. 投影方程 像素坐标 \( (u, v) \) 到世界坐标 \( (X_w, Y_w, Z_w) \) 的转换可以通过以下投影方程表示: \[ s \begin{bmatrix} u \\ v \\ 1 \end{bmatrix} = K [R | T] \begin{bmatrix} X_w \\ Y_w \\ Z_w \\ 1 \end{bmatrix} \] 其中: - \( s \) 是比例因子, - \( K \) 是内参矩阵, - \( [R | T] \) 表示齐次形式下的外参矩阵。 #### 3. 反解世界坐标 要从像素坐标反推世界坐标,可以按照以下步骤操作: - 首先利用已知的世界坐标点和对应的像素坐标点来求解相机的内外参数矩阵。 - 使用 `cv.solvePnP` 函数估算物体的空间位置和姿态。 - 如果目标点的世界坐标未知,则需提供其深度信息(即 \( Z_w \)),以便完成逆投影运算。 以下是具体代码实现的一个例子: ```python import numpy as np import cv2 # 定义内参矩阵K和畸变系数distCoeffs(通常来自标定结果) K = np.array([[fx, 0, cx], [0, fy, cy], [0, 0, 1]], dtype=np.float32) distCoeffs = np.zeros((4, 1)) # 已知的像素坐标(u,v),注意OpenCV中的顺序是列优先(col,row) uv_points = np.array([(col1, row1), (col2, row2)], dtype=np.float32) # 对应的目标点深度Zw depth_values = [Z1, Z2] world_coords = [] for uv, Zw in zip(uv_points, depth_values): # 将像素坐标转为中心化归一化的相机坐标(xc, yc) xc = (uv[0] - K[0][2]) / K[0][0] yc = (uv[1] - K[1][2]) / K[1][1] # 构造相机坐标(Xc,Yc,Zc) camera_coord = np.array([xc * Zw, yc * Zw, Zw]) # 获取当前帧的姿态(R|T)(可通过solvePnP或其他方式获得) rvec = ... # 这里应该是实际得到的结果 tvec = ... rotation_matrix, _ = cv2.Rodrigues(rvec) # 转换至世界坐标 world_coord = np.dot(np.linalg.inv(rotation_matrix), (camera_coord.T - tvec).T) world_coords.append(world_coord.flatten()) print("World coordinates:", world_coords) ``` 上述程序展示了如何依据给定的像素坐标及其对应深度计算出相应世界坐标的过程。 #### 注意事项 - 上述算法依赖于准确的相机标定数据及合理的初始条件设定。 - 当处理三维空间内的任意一点,除了二维图像上的投影位置之外还需要知道该点离摄像机的实际距离或者高度等额外维度的信息才能唯一确定它的全球定位。
评论 95
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

南洲.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值