SLAM十四讲-ch12-建图(包含单目和RGBD的代码详细注释)

本文深入探讨SLAM中的稠密建图技术,包括单目和RGBD相机的应用。在单目建图中,通过极线搜索和三角化计算深度,并使用滤波器优化。在RGBD建图中,运用StatisticalOutlierRemoval和voxel filter去除噪声,接着进行点云三角面格重建。最后,介绍了八叉树地图的构建方法,以高效存储空间占用信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、单目稠密建图

单目相机因为无法获得深度信息,所以要计算深度
步骤:
1、利用极线搜索、块匹配得到参考帧和当前帧像素的匹配(快匹配利用ncc评分进行匹配)。
2、利用三角化计算深度估计值
3、利用深度滤波器对深度估计值进行滤波 【滤波就是算出估计的深度(这时候估计的深度加上了一个像素的误差了)的不确定性,然后估计的深度与之前的原深度进行高斯融合】
4、更新深度
补:三角化的公式如下图
在这里插入图片描述
源码如下:

//
// Created by nnz on 2020/11/16.
//
/*************
 *  1、读取图片
 *  2、极限搜索 利用NCC评分进行块匹配
 *  3、利用三角化算出估计的深度
 *  3、深度滤波(算出加上一个像素误差的估计深度的不确定性)
 *  4、估计的深度与之前的深度进行高斯融合
 *  5、深度更新
 *
 ************/

#include <iostream>
#include <vector>
#include <fstream>
#include <boost/timer.hpp>
#include <sophus/se3.hpp> //位姿
#include <Eigen/Core>
#include <Eigen/Geometry>
#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
using namespace std;
using Sophus::SE3d;
using namespace Eigen;
using namespace cv;

// parameters
const int boarder = 20;         // 边缘宽度
const int width = 640;          // 图像宽度
const int height = 480;         // 图像高度
const double fx = 481.2f;       // 相机内参
const double fy = -480.0f;
const double cx = 319.5f;
const double cy = 239.5f;
const int ncc_window_size = 3;    // NCC 取的窗口半宽度
const int ncc_area = (2 * ncc_window_size + 1) * (2 * ncc_window_size + 1); // NCC窗口面积
const double min_cov = 0.1;     // 收敛判定:最小方差
const double max_cov = 10;      // 发散判定:最大方差
//读取数据集函数
bool readDatasetFiles(
        const string &path,//数据集路经
        vector<string> &color_image_files,//图片路径
        vector<SE3d> &poses,//容器poses存放各图片的位姿 注:位姿是Twc 相机坐标到世界坐标
        cv::Mat &ref_depth//ref_depth存放第一政图片的真实深度图,以便和我们自己计算出来的深度进行比较
        );
//对深度图进行更新
bool update(
        const Mat &ref,//参考帧
        const Mat &curr,//当前帧
        const SE3d &T_C_R,//位姿变换 (参考帧到当前帧)
        Mat &depth,//深度图
        Mat &depth_cov2//深度方差
        );

//极线搜索
//利用极线搜索进行参考帧和当前帧像点的匹配
bool epipolarSearch(
        const Mat &ref,//参考帧
        const Mat &curr,//当前帧
        const SE3d &T_C_R,//变换矩阵(参考帧到当前帧)
        const Vector2d &pt_ref,//参考帧像素点
        const double &depth_mu,//深度均值
        const double &depth_cov,//深度方差
        Vector2d &pt_curr,//与参考帧像素点匹配的当前帧像素点 这是output
        Vector2d &epipolar_direction//极线 向量 (单位向量,描述极线的方向)
        );

// 计算 NCC 评分 就是算块与块之间的相似性 从而看这两个点是否匹配
double NCC(
        const Mat &ref, //参考图像
        const Mat &curr,//当前图像
        const Vector2d &pt_ref,//  参考点
        const Vector2d &pt_curr//  当前点
        );

//深度滤波器,更新深度和深度方差
bool updateDepthFilter(
        const Vector2d &pt_ref,//参考图像点
        const Vector2d &pt_curr,//当前图像点
        const SE3d &T_C_R,//变换矩阵(参考帧到当前帧)
        const Vector2d &epipolar_direction,//极线方向
        Mat &depth,//深度均值
        Mat &depth_cov2//深度方差
);

// 双线性灰度插值
inline double getBilinearInterpolatedValue(const Mat &img, const Vector2d &pt) {
   
   
    uchar *d = &img.data[int(pt(1, 0)) * img.step + int(pt(0, 0))];
    double xx = pt(0, 0) - floor(pt(0, 0));
    double yy = pt(1, 0) - floor(pt(1, 0));
    return ((1 - xx) * (1 - yy) * double(d[0]) +
            xx * (1 - yy) * double(d[1]) +
            (1 - xx) * yy * double(d[img.step]) +
            xx * yy * double(d[img.step + 1])) / 255.0;
}


// 像素到相机坐标系(相机的归一化)
inline Vector3d px2cam(const Vector2d px) {
   
   
    return Vector3d(
            (px(0, 0) - cx) / fx,
            (px(1, 0) - cy) / fy,
            1
    );
}
// 相机坐标(相机的归一化)系到像素
inline Vector2d cam2px(const Vector3d p_cam) {
   
   
    return Vector2d(
            p_cam(0, 0) * fx / p_cam(2, 0) + cx,
            p_cam(1, 0) * fy / p_cam(2, 0) + cy
    );
}

//检查点是否在图像边框里
inline bool inside(const Vector2d &pt)
{
   
   
    return pt(0,0) >= boarder && pt(0,0)+ boarder <width &&
           pt(1,0)>=boarder && pt(1,0)+boarder<=height;
}

//深度误差计算
void evaludateDepth(const Mat &depth_truth, const Mat &depth_estimate);

//画深度图
void plotDepth(const Mat &depth_truth, const Mat &depth_estimate);

//显示极线搜索匹配
void showEpipolarMatch(
        const Mat &ref,
        const Mat &curr,
        const Vector2d &px_ref,
        const Vector2d &px_curr
        );

//显示极线
void showEpipolarLine(
        const Mat &ref,
        const Mat &curr,
        const Vector2d &px_ref,
        const Vector2d &px_min_curr,
        const Vector2d &px_max_curr
        );

int main(int argc,char **argv)
{
   
   
    //判断使用规不规范
    if(argc!=2)
    {
   
   
        cout<<" usge: ./dense_mapping path to dataset "<<endl;
        return 1;
    }
    //读取数据(数据集)
    //容器color_image_files里存放的是图片的路径  容器poses_TWC 存放图片的位姿
    //ref_depth 第一张图的真实深度图
    vector<string> color__images_files;
    vector<SE3d> poses_TWC;
    Mat ref_depth;
    bool ret=readDatasetFiles(argv[1],color__images_files,poses_TWC,ref_depth);
    //一个问题 这里读取文件的函数 深度图只读取了scene_000的深度 不过拿一个图的真实深度应该也够用了
    if(ret==false) //判断读取有没有失败
    {
   
   
        cout<<" Reading files failed! "<<endl;
        return 1;
    }
    cout<<"read total "<<color__images_files.size()<< "files. "<<endl;
    Mat ref =imread(color__images_files[0],0);//ref现在是第一张图
    SE3d pose_ref_TWC=poses_TWC[0];//pose_ref_TWC现在是第一张图片的位姿
    double init_depth=3.0;//
    double init_cov2=3.0;//
    Mat depth(height,width,CV_64F,init_depth);//初始化深度图
    Mat depth_cov2(height,width,CV_64F,init_cov2);//初始化深度方差
    //参考帧不变 一直是第一张图片
    //当前帧从第二张到第200张
    //利用循环遍历第二张图片到第200张图片 利用这些当前帧与固定参考帧进行深度更新,计算出第一张图的深度图
    for (int index = 1; index <color__images_files.size(); index++)
    {
   
   
        cout<<"*** loop "<<index<<"***"<<endl;
        Mat curr =imread(color__images_files[index],0);//curr当前帧
        if(curr.data== nullptr) continue;
        SE3d pose_curr_TWC=poses_TWC[index];
        SE3d pose_T_C_R =pose_curr_TWC.inverse()*pose_ref_TWC;//位姿变换 参考帧到当前帧
        update(ref,curr,pose_T_C_R,depth,depth_cov2);//更新深度图和深度方差图
        evaludateDepth(ref_depth,depth);//这里ref_depth是真实的深度图 depth是计算的深度图
        plotDepth(ref_depth, depth);//画出真实深度图、计算出来的深度图以及两个深度图(真实与计算)的误差图
        imshow("image", curr);//画出当前帧
        waitKey(1);
    }
    cout << "estimation returns, saving depth map ..." << endl;
    imwrite("depth.png", depth);//把计算出来的深度图保存
    cout << "done." <<
### 回答1: 《视觉SLAM十四》第三章主要介绍了视觉SLAM中的关键技术——特征提取描述子。本章首先介绍了特征点的概念特征点的选择原则。特征点即像中具有鲁棒性区分度的点,可以通过对其进行检测描述来进行特征匹配跟踪。在进行特征提取时,作者介绍了常见的特征检测算法,如Harris角点检测、SIFTSURF算法等,并对其进行了比较分析。 接着,本章详细阐述了特征描述子的概念作用。特征描述子是对特征点周围区域的像信息进行编码,以实现特征匹配跟踪。常见的特征描述子包括SIFT、SURFORB等。作者从描述子的表示形式、计算方式匹配方法等方面进行了介绍,并对它们进行了比较评价。同时,还提到了基于二进制描述子的方法,如BRIEF、BRISKFREAK等。 在特征匹配方面,本章介绍了特征描述子匹配的基本原理流程。以基于特征点的视觉SLAM为例,作者详细解释了特征点的匹配过程,包括特征点的选择、特征点描述子匹配筛选等步骤。并介绍了如何通过验证特征点的三角化PnP求解来估计相机的位姿。 此外,本章还介绍了一些特定场景下的特征点选择提取策略,如动态环境下的特征点追踪关键帧选择等。 综上所述,《视觉SLAM十四》第三章主要介绍了特征提取描述子在视觉SLAM中的重要性应用。通过对特征点的检测描述,可以实现特征匹配跟踪,为后续的相机位姿估计提供基础。该章内容详细且通俗易懂,对于学习理解视觉SLAM有着重要的指导作用。 ### 回答2: 《视觉SLAM十四-Ch3》主要介绍了视觉SLAM(同时定位与)技术的基本原理实现方法。本章主要涵盖了三维几何表示变换、相机模型相机姿态以及特征提取与匹配等内容。 首先,本章介绍了三维几何表示变换的概念。通过介绍欧氏空间中的点、向量坐标变换,深入解释了相机在三维空间中的位置朝向的表示方式。同时,引入了齐次坐标投影矩阵的概念,为后续的相机模型姿态估计打下了基础。 其次,本章详细解了相机模型相机姿态的原理与应用。其中,介绍了针孔相机模型,分析了像坐标相机坐标之间的映射关系。通过投影矩阵的推导,给出了透视投影仿射投影的公式,并解释了相机焦距主点的含义。此外,还介绍了如何通过计算相机的外参矩阵来估计相机的姿态,以及如何将像坐标转换为相机坐标。 最后,本章介绍了特征提取与匹配的技术。首先,介绍了角点边缘点的概念,以及如何利用差分梯度计算来检测像中的角点边缘点。然后,介绍了如何通过特征描述符来表示像中的特征点,并通过特征匹配算法找到两幅像之间的对应关系。特征提取与匹配是视觉SLAM中非常重要的步骤,对于后续的相机定位至关重要。 综上所述,《视觉SLAM十四-Ch3》通过系统地介绍了视觉SLAM技术的基本概念实现方法,包括三维几何表示变换、相机模型相机姿态的原理与应用,以及特征提取与匹配的技术。这些内容为读者深入理解掌握SLAM技术提供了很好的基础。 ### 回答3: 视觉SLAM(Simultaneous Localization and Mapping)是一种通过计算机视觉技术,实现机器智能的同时实时定位的方法。在《视觉SLAM十四》第三中,主要介绍了视觉SLAM的基本概念关键技术。 首先,解了视觉SLAM的理论基础,包括自我运动估计两个部分。自我运动估计是通过相邻帧之间的视觉信息,计算相机在三维空间中的运动,从而实现机器的实时定位;地是通过对场景中特征点的观测跟踪,立起一个三维空间中的地。这两个过程相互影响,通过不断迭代优化,实现高精度的定位。 接着,解了基于特征的视觉SLAM算法。特征提取与描述是视觉SLAM系统的关键步骤,通过提取场景中的特征点,并为其生成描述子,来实现特征点的匹配跟踪。同时,还介绍了一些常用的特征点提取匹配算法,如FAST、SIFT等。 在SLAM框架方面,本节还介绍了基于视觉的前端后端优化。前端主要负责实时的特征跟踪估计相机运动,后端则是通过优化技术,对前端输出的轨迹进行优化求解,从而提高系统的精度鲁棒性。 最后,本节提到了几个视觉SLAM的应用场景,如自主导航、增强现实等。这些应用对于实时高精度的定位立都有着很高的要求,因此,视觉SLAM的技术在这些领域有着广泛的应用前景。 总的来说,《视觉SLAM十四》第三视觉SLAM的基本概念关键技术进行了系统的介绍。理论基础、特征提取与描述、SLAM框架应用场景等方面的内容都给出了详细的解释案例,有助于读者更好地理解应用视觉SLAM技术。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值