最佳 Demo 论文奖
论文标题:Demonstrating CropFollow++: Robust Under-Canopy Navigation with Keypoints
作者:Arun Narenthiran Sivakumar, Mateus Valverde Gasparino, Michael McGuire, Vitor Akihiro Hisano Higuti, M. Ugur Akcal, Girish Chowdhary
机构:UIUC、Earth Sense
论文链接:https://enriquecoronadozu.github.io/rssproceedings2024/rss20/p023.pdf
在这篇论文中,研究者提出了一种基于经验的鲁棒性视觉导航系统,用于使用语义关键点的作物冠下农业机器人。
由于作物行间距较小(∼ 0.75 米)、多径误差导致 RTK-GPS 精度下降以及杂波过多导致激光雷达测量产生噪声,作物冠下的自主导航具有挑战性。早期名为 CropFollow 的工作通过提出一种基于学习的端到端感知视觉导航系统来应对这些挑战。然而,这种方法存在以下局限性:缺乏可解释的表征,以及由于置信度不够缺乏在遮挡期间对离群预测的敏感性。
本文系统 CropFollow++ 引入了模块化感知架构和学习的语义关键点表示法。与 CropFollow 相比,CropFollow++ 的模块化程度更高、可解释性更强,并提供了检测闭塞的置信度。CropFollow++ 在具有挑战性的晚季田间测试中的表现明显优于 CropFollow,每个田间测试跨度达 1.9 千米,所需的碰撞次数为 13 次对 33 次。研究者还在不同的田间条件下,将 CropFollow++ 大规模部署在多个作物冠下覆盖作物种植机器人中(总长 25 公里),并讨论了从中汲取的主要经验教训。
论文标题:Demonstrating Agile Flight from Pixels without State Estimation
作者:smail Geles, Leonard Bauersfeld, Angel Romero, Jiaxu Xing, Davide Scaramuzza
论文链接:https://enriquecoronadozu.github.io/rssproceedings2024/rss20/p082.pdf
四旋翼无人机是最敏捷的飞行机器人之一。尽管最近的一些研究在基于学习的控制和计算机视觉方面取得了进步,但自主无人机仍然依赖于明确的状态估计。另一方面,人类飞行员只能依靠无人机机载摄像头提供的第一人称视角的视频流将平台推向极限,并在看不见的环境中稳健飞行。
本文展示了首个基于视觉的四旋翼无人机系统,该系统可在直接将像素映射到控制指令的同时,自主高速通过一连串门。与专业的无人机赛车手一样,该系统不使用明确的状态估计,而是利用与人类相同的控制指令(集体推力和身体速率)。研究者展示了速度高达 40km/h 且加速度高达 2g 的敏捷飞行。这是通过强化学习(RL)训练基于视觉的策略实现的。使用非对称的 Actor-Critic 可以获取特权信息,为训练提供便利。为了克服基于图像的 RL 训练过程中的计算复杂性,研究者使用门的内边缘作为传感器抽象。在训练过程中,无需渲染图像就能模拟这种简单而强大的任务相关表示法。在部署过程中,研究者使用了基于 Swin Transformer 的门检测器。
本文方法可以利用标准的、现成的硬件实现自主敏捷飞行。虽然演示侧重于无人机竞赛,但该方法的影响已经超出了竞赛范围,可以作为未来研究结构化环境中真实世界应用的基础。
最佳系统论文奖
论文标题:Universal Manipulation Interface: In-The-Wild Robot Teaching Without In-The-Wild Robots
Cheng Chi, Zhenjia Xu, Chuer Pan, Eric Cousineau, Benjamin Burch