基于视觉传感器融合的无人机导航技术解析
1. 视觉传感器融合的方式
为了充分利用视觉传感器,大多数无人机(UAS)通常采用以下方式利用视觉数据来增强传统传感器套件的功能:
- 视觉 - 惯性辅助(Visual - inertial aiding) :视觉和惯性传感器相互辅助。例如,惯性传感器通常用于缩小帧间特征匹配的搜索空间。常见策略是利用光流(OF)测量来增强速度估计。
- 视觉 - 惯性里程计(Visual - inertial odometry) :可视为视觉 - 惯性辅助的一个子集,其中 6 自由度视觉里程计(VO)与惯性测量值在松散或紧密耦合的传感器中进行融合。
1.1 常用视觉传感器融合算法
| 方法 | 描述 |
|---|---|
| 视觉 - 惯性辅助 | 利用宽视场光流和惯性传感器进行无人机导航,通过无迹信息滤波器实现光流辅助的惯性导航,并记录飞行试验中的状态估计误差统计数据以评估性能;使用 SAD 块匹配计算光流,并将光流与惯性测量值集成用于无人机定位和结构从运动(SFM);采用图像插值算法(I2A),在 GPS 信号丢失时通过光流提供速度辅助,并在地形跟踪任务中提供地面高度,以增强 GPS/INS 系统的状态估计;紧密耦合视觉和惯性传感器,利用惯性传感器输出预测并缩小特征跟踪的搜索空间,并通过蒙特卡罗模拟对定位误差进行统计表征;开发结合多个相机对单个静态特征观测之间几何约束的 EKF 测量模型 |
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



