KinFu及其ICP、TSDF、Raycast理解

参考链接

kinect fusion 3D重建基本算法

Kinect Fusion 算法浅析:精巧中带坑

The Basics of GPU Voxelization


image-20210324103709615

Pre-work

在进行下面的处理处理之前,kinectFusion实际还对原始的深度信息进行了一定的降噪平滑,采用双边滤波(Bilateral filtering),在保留边缘的基础上进行平滑,是个可以接受的选择。

Depth Map Conversion

​ 主要由原先的图像点u=(x,y),以及深度值D(u),求得每个点的法向量n(u)。根据相机的内部矩阵,将图像2D坐标转化为相机原点坐标系的3D点。其重点是,如何从raw depth 计算出 vertex和normal?

​ 已知的raw depth可以认为是一个2.5D 的信息,即由像素u的坐标x、y和对应深度 D i ( u ) \mathbf{D}_{i}(\mathbf{u}) Di(u)来组成。在相机校准后已经可以获得相机的焦距, 光心,扭曲参数以及相机变化矩阵(world->camera),所以我们可以通过back project的方法 v i ( u ) = D i ( u ) K − 1 [ u , 1 ] \mathbf{v}_{i}(\mathbf{u})=\mathbf{D}_{i}(\mathbf{u}) \mathbf{K}^{-1}[\mathbf{u}, \mathbf{1}] vi(u)=Di(u)K1[u,1]来获得在camera space下的三维点 v i ( u ) \mathbf{v}_{i}(\mathbf{u}) vi(u),并且根据深度图上的相邻像素来计算出每个点的normal n i ( u ) = ( v i ( x + 1 , y ) − v i ( x , y ) ) × ( v i ( x , y + 1 ) − v i ( x , y ) ) \mathbf{n}_{i}(\mathbf{u})=\left(\mathbf{v}_{i}(x+1, y)-\mathbf{v}_{i}(x, y)\right) \times\left(\mathbf{v}_{i}(x, y+1)-\mathbf{v}_{i}(x, y)\right) ni(u)=(vi(x+1,y)v

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值