该研究来自于计算机视觉顶会iccv,https://openaccess.thecvf.com/content/ICCV2025W/ACVR/papers/Yu_NaVIP_A_Low-Cost_Infrastructure-free_Indoor_Navigation_Solution_for_Visually_Impaired_ICCVW_2025_paper.pdf
1. 一段话总结
NaVIP是由美国理海大学团队提出的、专为视障人士(VIPs)设计的低成本、无基础设施依赖的室内导航系统,它基于深度学习的绝对姿态回归(APR)技术,仅利用商用智能手机(COTS)拍摄的图像,直接回归6自由度(6-DoF)相机位姿(位置与方向),无需蓝牙、Wi-Fi等传感器或物理信标;该系统在理海大学HST大楼(4层)的大规模数据集(训练集212,190张图像、测试集87,917张图像)上验证,实现亚米级定位精度(最优模型ResNet+多任务损失在地下室均值误差0.39m、角度3.41°),并开发iOS应用,支持“探索模式”(实时播报周边兴趣点PoI)和“导航模式