abstract:从人类演示中进行的模仿学习在机器人技术中表现出了令人印象深刻的表现。然而,大多数结果都集中在桌面操作上,缺乏一般有用任务所需的移动性和灵活性。在这项工作中,我们开发了一种用于模仿双手且需要全身控制的移动操纵任务的系统。我们首先推出 Mobile ALOHA,这是一种用于数据收集的低成本全身远程操作系统。它通过移动底座和全身遥控操作界面增强了 ALOHA 系统。然后,我们使用 Mobile ALOHA 收集的数据执行监督行为克隆,并发现与现有静态 ALOHA 数据集的联合训练可以提高移动操作任务的性能。每项任务进行 50 次演示,协同训练可将成功率提高高达 90%,让 Mobile ALOHA 能够自主完成复杂的移动操作任务,例如炒和上一块虾、打开两门壁柜存放重物等烹饪锅具、呼叫并进入电梯以及使用厨房水龙头轻轻冲洗用过的锅。
项目地址:https://mobile-aloha.github.io/
sim 数据集:https://drive.google.com/drive/folders/1gPR03v05S1xiInoVJn7G7VJ9pDCnxq9O
real 数据集(含static):https://drive.google.com/drive/folders/1FP5eakcxQrsHyiWBRDsMRvUfSxeykiDc
1. act++代码复现
code: https://github.com/huiwenzhang/act-plus-plus
conda create -n aloha python=3.8.10
conda activate aloha
pip install torch==1.
本文介绍了Mobile ALOHA,一个低成本全身远程操作系统,用于模仿学习移动操纵任务。通过Mobile ALOHA收集的数据,研究者执行了监督行为克隆,并发现与静态ALOHA数据集的联合训练可以提升移动操作任务的性能。文章详细讨论了Action Chunking with Transformers (ACT)算法,包括动作分块和时间集成的概念,以及如何利用Transformer模型实现。实验结果显示,ACT能够显著提高任务成功率,如炒虾、开门等复杂任务。
订阅专栏 解锁全文
12万+

被折叠的 条评论
为什么被折叠?



