预测驾驶员何时需要 AR 导航辅助
1. 引言
传统的汽车导航系统通过屏幕和语音为驾驶员提供信息。然而,低头查看屏幕可能违反交通法规,且在复杂路况下仅依靠语音指导获取信息较为困难。为解决这一问题,增强现实抬头显示(AR - HUD)技术被应用于汽车导航系统。它能将重要信息叠加在挡风玻璃上,减少驾驶员低头的风险。但如果信息持续显示,可能会使驾驶员感到困惑。因此,自动预测驾驶员何时需要 AR 导航辅助,自适应地呈现必要信息,是解决这一问题的关键。
2. 预测驾驶员需要 AR 导航辅助的特征设计
为了实现自适应的 AR 导航呈现,我们设计了一套特征集,用于机器学习预测。输入信息分为两类:基于驾驶员视线移动的信息和基于周围环境及驾驶路线的信息。输出为二进制,即根据是否需要在该时刻显示 AR 导航。
2.1 基于驾驶员视线移动的特征
我们设计了七个基于驾驶员视线移动的特征,具体如下表所示:
| ID | 特征名称 | 类型 |
| — | — | — |
| 1 | 视线移动总量 | 实数 |
| 2 | 水平视线移动量 | 实数 |
| 3 | 垂直视线移动量 | 实数 |
| 4 | 从挡风玻璃中心的视线移动量 | 实数 |
| 5 | 视线移动速度 | 实数 |
| 6 | 视线点是否在挡风玻璃区域内? | 布尔值 |
| 7 | 视线点是否在导航屏幕内? | 布尔值 |
我们假设当驾驶员感到困惑需要帮助时,会更频繁地转移视线并看向导航屏幕。视线点通过眼动追踪设备获取,以二维坐标表示。特征 1 - 5 表示视线移动量,为数值型;
超级会员免费看
订阅专栏 解锁全文
47

被折叠的 条评论
为什么被折叠?



