高效机器人示教抓取学习方法解析
1. 引言
近年来,机器人抓取技术取得了显著进展,但要让机器人像人类或灵长类动物一样进行感知、决策和行动,仍面临诸多挑战。示教学习(LfD)在机器人领域的应用越来越广泛,如打乒乓球、物体操作、制作咖啡、抓取新物体等。由于机器人需在真实环境中基于嘈杂的感官信息和不完整的环境模型做出决策,直接建模可用感官输入与期望输出之间关系的深度学习方法变得更受欢迎。
为了生成平滑轨迹并减少人类示教次数,本文提出了一种数据增强方法来增加训练数据,并利用轨迹规划技术实现平滑稳定的轨迹。对于双足类人机器人,还需要决定使用哪只手臂抓取物体,因此实现了一个支持向量机分类器来解决手臂选择问题。
2. 相关工作
LfD的一个主要挑战是将示教扩展到未见过的情况。解决这个问题的一种方法是获取大量涵盖尽可能多情况的示教数据,一些研究人员提出了基于云的众包数据收集技术或使用模拟环境。另一种方向是使用较少的示教数据并更新学习模型以实现更好的泛化,比如手动设计特定任务的特征。
不同研究人员采用了不同的方法,例如Inoue等人使用大量合成图像训练位置检测模型,并将其迁移到真实物理环境图像;De Magistris等人使用循环模型在虚拟环境中进行物体的拾取和放置任务;Finn等人使用深度空间自动编码器获取描述任务环境的特征点集。而本文仅通过机器人头部方向和RGB图像中的物体位置来估计位置。
3. 方法概述
本文方法主要包括四个阶段:数据收集阶段、轨迹生成阶段、支持向量机(SVM)训练阶段和轨迹生成器训练阶段,具体流程如下:
超级会员免费看
订阅专栏 解锁全文
520

被折叠的 条评论
为什么被折叠?



