无人运动平台的道路环境感知方法探索
在如今的科技发展中,无人运动平台的道路环境感知技术至关重要。研究人员不再盲目追求准确率,而是通过缩减网络模型来提升推理速度,从而在准确率和速度之间达成平衡。在实时语义分割领域,涌现出了一系列优秀的网络,如 ENet、SegNet、BiSeNet V2 等。
为了让无人运动平台能够获取实时的环境语义信息和障碍物深度信息,本文提出了一种结合实时语义分割技术和基于双目相机的特征点匹配方法。该方法主要有以下两大贡献:
1. 在语义分割网络生成的感兴趣区域内进行稀疏立体匹配,这种匹配方法高效、实时且鲁棒性强。
2. 将环境的语义信息和障碍物的深度信息进行融合,并同时提供给无人运动平台的规划模块。
双目立体视觉原理
双目成像类似于人眼,左右相机拍摄的图像存在差异,这种差异与物体的距离成反比,因此环境感知系统可以借此感知深度信息。双目结构通常分为平行型和非平行型,划分依据是两个相机的主光轴是否平行。
-
平行型双目结构 :这是在理想情况下建立的双目结构模型,要求两个相机完全相同,即两个相机的成像平面平行且共面。假设三维空间中有一点 $P(X, Y, Z)$,其在左相机图像平面和右相机平面的投影点分别为 $P_l(x_l, y)$ 和 $P_r(x_r, y)$。根据三角形相似原理,可得到以下公式:
[
\begin{cases}
x_l = \frac{f \cdot X}{Z}\
x_r = \frac{f \cdot (X - b)}{Z}\
y = \frac{b \cdot Y}{Z}
\end{
超级会员免费看
订阅专栏 解锁全文
43

被折叠的 条评论
为什么被折叠?



