视觉SLAM十四讲编译ch6踩坑记

博主尝试通过更新CmakeLists.txt来安装g2o的最新版本,但遇到问题。他们参考了旧的安装教程,该教程适用于g2o_202004版本。安装过程包括创建build目录,使用cmake,make并进行安装。尽管编译成功,但问题仍未解决。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

所遇bug:
在这里插入图片描述
这里在csdn一顿搜,找到方法安装g2o最新版本,然后在CmakeLists.txt修改和添加下列代码:

list(APPEND CMAKE_MODULE_PATH /home/self/CODE/slam/slambook2/3rdparty/g2o/g20_202004/g2o-20200410_git/cmake_modules)//修改
set(G2O_ROOT /usr/local/include/g2o) //添加

不出意外,并没有解决问题,这里主要就是之前的帖子太早了他们对应的版本是g2o_202004.
g2o_202004
安装方法:

cd g2o
mkdir build
cd build
cmake ..
make -j12
sudo make install

编译成功截图:
在述

### 关于《视觉SLAM十四》第6的内容 #### 6.1 单目视觉里程计初探 单目视觉里程计(Monocular Visual Odometry, V-O)旨在仅利用单一摄像头获取的图像序列来估计相机运动。由于单目摄像机无法直接测量尺度信息,因此该方法通常会引入某些假设或外部约束条件以解决尺度不确定性问题[^1]。 #### 6.2 特征点法简介 特征点法是实现V-O的一种常见方式,其核心在于检测并匹配不同帧间的稳定特征点。为了提高鲁棒性和精度,在实际应用中往往会选择具有良好区分度且易于追踪的角点作为特征点。此外,还需要采用有效的几何一致性检验机制去除误配对,从而确保后续计算准确性[^2]。 #### 6.3 直接法概述 不同于基于特征的方法,直接法则试图充分利用原始像素强度变化来进行位姿估计。这类算法一般不需要显式的特征提取步骤,而是通过对整幅图片的信息加以分析完成任务目标。尽管如此,它们对于光照条件的变化较为敏感,并可能面临遮挡等问题带来的挑战[^3]。 #### 6.4 实践指南与案例研究 本节还提供了详细的实践指导,包括但不限于: - 数据集的选择与准备; - 参数调优技巧分享; - 性能评估指标介绍; - 常见错误排查建议。 同时附有丰富的实例解析帮助读者更好地理解和掌握所学知识点。 ```python import cv2 import numpy as np def extract_features(image): orb = cv2.ORB_create() keypoints, descriptors = orb.detectAndCompute(image, None) return keypoints, descriptors image = cv2.imread('example.jpg', 0) # 加载灰度图 keypoints, _ = extract_features(image) for kp in keypoints[:10]: print(f'Key point at ({kp.pt[0]}, {kp.pt[1]}), size={kp.size}') ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值