29、机器人视觉定位与导航系统测试结果解析

机器人视觉定位与导航系统测试结果解析

1. 测试系统概述

本次测试在位于洛杉矶的南加州大学校园(USC)内,使用 Beobot 2.0 机器人展开。Beobot 2.0 具备十六核 2.6 GHz 分布式计算平台,采用订阅/发布架构管理从传感器数据采集、定位、导航到驱动的所有功能。系统运用了 Beobot 2.0 的部分传感器,包括前置单目摄像头、激光雷达(LRF)、惯性测量单元(IMU)以及轮式编码器。摄像头输出 320×240 像素的图像,用于道路识别时保持该尺寸,而用于视觉定位时则缩放至 160×120 像素。

测试流程如下:
1. 先通过输入手持摄像机录制的环境视频,进行离线的基于主旨的路段分类和度量位置估计测试。
2. 再在真实场景下对机器人进行全面定位和导航测试。

2. 离线路段分类测试

2.1 测试场地与数据采集

测试选取了南加州大学校园内的三个场地:
- 38.4×54.86 m 的 Ahmanson 生物研究中心(ACB)建筑群,周边多为纹理较少的平坦墙壁和划分建筑不同部分的实线。
- 82.3×109.73 m 的毗邻的副教授和创始人公园(AnF),以植被为主。
- 137.16×178.31 m 的 Frederick. D. Fagg 公园。

使用 8 mm 手持摄像机,由行人携带,在多天的不同时间进行数据采集,涵盖了从最亮(中午)到最暗(傍晚)的光照条件、阴天与晴天、以及因温度导致的外观变化(午后薄雾)。为确保结果的可靠性,相似光照条件下的训练和测试数据总是在不同日期采集。视频片段被划分为路段,划分时确保相邻路段之间有清晰的分割。各场地的训练和测试帧数如下:
| 场地 | 训练帧数 | 测试帧数 |
| ---- | ---- | ---- |
| ACB | 26,368 | 13,966 |
| AnF | 66,291 | 26,387 |
| FDF | 82,747 | 34,711 |

2.2 测试结果分析

系统采用相同的分类器神经网络结构,每个路段有九个输出层节点。将各场地数据合并训练一个单一分类器,结果如下表所示:
| Segment | ACB(False+/False−) | AnF(False+/False−) | FDF(False+/False−) | Accumulated(False+/False−) | Combined(False+/False−) |
| ---- | ---- | ---- | ---- | ---- | ---- |
| 1 | 102/1608,90/1596 | 437/2617,957/3137 | 134/2775,710/3351 | 673/7000,1757/8084 | 1088/7083,2089/8084 |
| 2 | 256/1631,400/1775 | 538/2115,269/1846 | 460/3256,407/3203 | 1254/7002,1076/6824 | 1368/7044,1148/6824 |
| 3 | 116/1896,106/1886 | 355/3757,371/3773 | 634/3475,235/3346 | 1105/9128,712/9005 | 1723/10110,618/9005 |
| 4 | 43/1060,217/1234 | 485/2511,379/2405 | 96/3102,229/3235 | 624/6673,825/6874 | 350/6714,510/6874 |
| 5 | 287/1430,141/1284 | 399/3065,272/2938 | 47/2396,778/3127 | 733/6891,1191/7349 | 819/7574,594/7349 |
| 6 | 155/2142,100/2087 | 986/4627,583/4224 | 780/7068,341/6629 | 1921/13837,1024/12940 | 1872/12928,1884/12940 |
| 7 | 342/1706,317/1681 | 349/1909,392/1952 | 55/3311,455/3711 | 746/6926,1164/7344 | 915/6822,1437/7344 |
| 8 | 223/1279,43/1099 | 246/2814,287/2855 | 1387/6000,395/5008 | 1856/10093,725/8962 | 1113/9072,1003/8962 |
| 9 | 157/1213,267/1323 | 374/2982,659/3267 | 357/3058,400/3101 | 888/7253,1326/7691 | 924/7726,889/7691 |
| Total | 1681/13965 | 4169/26397 | 3950/34711 | 9800/75073 | 10172/75073 |
| Percent. (%) | 12.04 | 15.79 | 11.38 | 13.05 | 13.55 |

从结果可以看出:
- 整体准确率为 86.95%,误差率为 13.05%。
- AnF 场地的误差率最高,达到 15.79%,比其他两个场地约低 4%,这可能是由于该场地场景重叠多、结构不明显,容易出现意外的分类错误。
- 路段长度的增加对结果影响不大,FDF 场地面积最大、测试帧数最多,但结果优于较小的 ACB 场地。
- 训练集中适当的光照覆盖至关重要。训练后立即测试,误差在 9% - 11%;若排除与测试数据光照条件相同的训练图像,误差通常会增至 30% - 40%。

为评估系统的可扩展性,将三个场地的场景合并训练分类 27 个路段,整体误差为 13.55%,与分别训练场地时的平均误差 13.05% 相差不大。此外,合并网络的场地级混淆矩阵显示,系统能以 95.46% 的准确率将测试图像定位到正确场地。

2.3 离线路段分类测试流程 mermaid 图

graph LR
    A[选择测试场地] --> B[数据采集]
    B --> C[视频片段划分]
    C --> D[训练分类器]
    D --> E[测试分类器]
    E --> F[分析结果]

3. 离线度量定位测试

3.1 测试方法

在与路段分类相同的三个场地进行测试,系统将定位到地图上的坐标位置。将采用局部特征(显著区域内的 SIFT 关键点和显著点的显著特征向量)和全局(主旨)特征的系统,与仅使用显著区域和仅使用主旨特征的两个系统进行比较,三个系统的后端蒙特卡罗定位模块相同。

3.2 误差计算

由于数据是在大致恒定速度下记录且起始和结束位置已知,可对真实位置进行插值。误差为机器人估计位置与真实位置之间的测量距离(米),即拓扑地图图边的纵向距离。

3.3 测试结果

Segment ACB(帧数/误差(m)) AnF(帧数/误差(m)) FDF(帧数/误差(m)) Total(帧数/误差(m))
1 1596/0.87 3137/2.36 3351/1.90 8084/1.88
2 1775/1.76 1846/3.05 3203/4.42 6823/3.36
3 1887/1.00 3773/2.93 3346/2.71 9006/2.44
4 1234/0.98 2405/2.28 3235/3.83 6874/2.78
5 1284/1.37 2938/2.39 3127/3.68 7349/2.76
6 2087/0.76 4224/2.50 6629/4.10 12,940/3.04
7 1681/0.68 1952/2.68 3711/3.28 7344/2.53
8 1099/0.83 2855/2.35 5008/3.38 8962/2.74
9 1323/0.59 3267/3.14 3101/3.29 7691/2.76
Total 13,966/0.98 26,397/2.63 34,711/3.46 75,073/2.70

整体误差为 2.70 m。误差主要源于识别出的显著区域位于路段末端,即使机器人有较大位移,其大小也几乎不变。例如 FDF 场地,系统会锁定远处的建筑物。当前系统使用匹配数据库中显著区域的位置作为机器人当前位置的假设,SIFT 模块虽能进行尺度不变匹配,但当远处建筑物更显著时,其大小和外观变化小,不利于精确位置定位,系统需要更靠近(<3 m)的区域。

3.4 模型比较

系统 ACB(误差(m)) AnF(误差(m)) FDF(误差(m)) Total(误差(m))
Gist 7.61 16.56 25.44 19.00
SIFT 1.71 3.22 4.53 3.55
Bio - system 0.98 2.63 3.46 2.71

从模型比较结果可知:
- 仅使用主旨特征的系统无法进行度量级定位,只能定位到路段级别。
- 仅使用 SIFT 特征的系统性能与采用全局和局部特征的生物系统相近,但生物系统在 ACB、AnF 和 FDF 场地的误差分别比 SIFT 系统降低了 42.53%、18.65% 和 23.74%。
- 在机器人被移动(绑架机器人情况)时,生物系统能更快重新定位,因为它能接收更多的全局和局部观测信息。

3.5 离线度量定位测试流程 mermaid 图

graph LR
    A[选择测试场地] --> B[数据采集]
    B --> C[误差计算准备]
    C --> D[不同系统测试]
    D --> E[分析结果]
    E --> F[模型比较]

4. 全定位与导航测试

4.1 测试路线与实验设置

在南加州大学校园内构建了三条长度分别为 511.25 m、615.48 m 和 401.16 m 的路线,涵盖了各种不同的场景。Beobot 2.0 在 3 个月的冬季(12 月 - 2 月)内进行了超过 3 小时 17 分钟(10.11 km)的实验记录。自主驾驶时机器人的平均速度为 0.66 m/s,最大速度为 0.89 m/s,速度差异是由于实验过程中电池电量下降导致的。各路线的详细信息如下表所示:
| 路线 | 路线长度(m) | 行人密度(人/m) | 天气/光照条件 | 速度(m/s) | 总训练帧数 | 总测试帧数 | 总时间(s) | 避障时间(s) |
| ---- | ---- | ---- | ---- | ---- | ---- | ---- | ---- | ---- |
| Library | 511.25 | 0.19 | 4 - 6 p.m.,部分阳光;12 - 2 p.m.,晴天 | 0.61;0.44 | 16,621;16,688 | 13,825;34,979 | 838.35;1165.88 | 29.99;73.13 |
| Professional | 615.48 | 0.06 | 4 - 6 p.m.,阴天;12 - 2 p.m.,晴天 | 0.73;0.89 | 21,488;9702 | 20,000;20,773 | 840.79;692.37 | 0.00;46.10 |
| Athletic | 401.16 | 0.04 | 4 - 6 p.m.,晴空;11 a.m. - 6 p.m.,晴天 | 0.77;0.68 | 19,022;9102 | 11,017;17,499 | 522.21;583.24 | 13.67;27.10 |

4.2 定位测试

4.2.1 测试方法

定位精度通过将系统输出与手动获取的真实位置进行比较来测量。真实位置通过向系统发送信号记录,信号在路径的特定部分发送,间隔适当(最小 3 m),假设机器人在该时间段内以大致恒定速度运行,对信号点之间的真实位置进行插值。这些信号仅在测试后处理,不用于运行时。系统手动初始化起始位置。

4.2.2 测试结果

定位结果的箱线图展示了不同路线、不同拥挤条件和驾驶模式下的情况。结果显示,系统在自主驾驶时能够在 0.97 m(中位数)的误差范围内定位到真实位置,可到达超过 400 m 远的目标。误差的主要来源是显著区域匹配的尺度粒度问题,对于远处的地标,小尺寸的显著区域在较大的观察距离范围内看起来相同,导致定位误差。例如,PROF 路线的最后一段,系统在超过 50 m 的距离内误差持续超过 3 m。

不同拥挤条件下的定位误差有统计学意义上的显著差异(Friedman 检验,p < 0.005),但中位数相近(低拥挤时为 0.98 m,高拥挤时为 0.96 m)。大多数情况下,定位系统能在行人中识别出足够的地标,但当行人遮挡地面附近的地标时,会影响定位精度,但不会完全定位错误。

自主驾驶和手动驾驶的定位性能也有显著差异(Friedman 检验,p < 0.005),自主驾驶的中位数误差(0.96 m)低于手动驾驶(1.00 m),这有些出乎意料,因为自主驾驶时机器人由于道路识别系统不完善,并不总是在道路中间行驶。

避障时的定位性能在不同拥挤条件下、避障与非避障遍历之间都有显著差异(Friedman 检验,p < 0.005),但避障与非避障遍历的中位数误差仅相差 1 cm(避障时为 0.95 m,非避障时为 0.96 m)。避障操作有时能使机器人回到道路中心,提高定位精度,平均定位误差从避障前的 1.39 m 降至避障后的 1.09 m。不过,在路口转弯时,定位误差变得关键,但由于校园道路宽度为 6 - 8 m,机器人不会完全错过道路。

4.2.3 定位测试流程 mermaid 图
graph LR
    A[选择测试路线] --> B[手动获取真实位置信号]
    B --> C[系统初始化]
    C --> D[不同条件下测试]
    D --> E[比较输出与真实位置]
    E --> F[分析定位误差]

4.3 导航测试

4.3.1 测试方法

导航系统的准确性通过其在各种类型道路上保持在道路中间位置的能力来衡量。导航误差定义为机器人中心与道路中心的物理横向距离。机器人的横向位置在路径的某些特定点手动标注,两点之间的轨迹通过里程计重建。

4.3.2 测试结果

结果按场地和拥挤条件划分,整体上系统能保持在道路中心 1.37 m(中位数)的范围内。低拥挤和高拥挤条件下有显著差异(Friedman 检验,p < 0.005),低拥挤时中位数为 1.23 m,高拥挤时为 1.55 m。

避障操作的起始点为机器人首次快速改变方向,结束点为其横向位置稳定回到中心。但在某些情况下,避障操作结束后,系统误差仍偏离中心。例如,在 LIBR 测试的低拥挤条件下,机器人连续避开两人、路牌和自行车架后,长时间停留在道路左侧(距中心 3 m),系统将当前横向位置重置为新的道路中心。如果机器人回到中心,整体中位数误差将为 0.87 m,低于实际的 1.09 m。

当前道路识别系统无法稳健识别真实道路中心,因此每当建立新的稳定横向位置时,系统会重置中心,这有助于系统应对边界位置的变化。此外,在某些区域,如 PROF 路线的喷泉区域,由于缺乏道路方向的视觉线索,机器人在避障时只能维持最后一次的道路 IMU 航向估计,但仍能到达约 200 m 外的目标位置。

4.3.3 导航测试流程 mermaid 图
graph LR
    A[选择测试路线] --> B[手动标注横向位置]
    B --> C[轨迹重建]
    C --> D[不同拥挤条件测试]
    D --> E[计算导航误差]
    E --> F[分析结果]

5. 总结

通过对机器人视觉定位与导航系统的全面测试,我们可以得出以下结论:
- 离线路段分类测试中,系统整体准确率较高,但不同场地的误差有所差异,光照条件对测试结果影响较大,系统的可扩展性较好。
- 离线度量定位测试表明,结合局部和全局特征的系统在定位精度上优于仅使用单一特征的系统,且在机器人被移动时能更快重新定位。
- 全定位与导航测试中,定位系统在各种条件下能较好地工作,但在远处地标和路口转弯时存在误差;导航系统能在一定程度上保持在道路中间,但在高拥挤和缺乏视觉线索的情况下需要改进。

未来的研究可以针对系统的薄弱环节进行优化,如提高路口转弯的定位精度、增强道路中心识别能力等,以进一步提升机器人的视觉定位与导航性能。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值