机器人学习与控制方法研究
1 远程操作演示的概率在线机器人学习
1.1 轨迹修正与模型更新
在轨迹细化后,使用新的轨迹 $\tau_{new}^d$ 来更新条件概率运动原语(conditioned - ProMPs)。具体步骤如下:
1. 从 $\tau_{new}^d$ 计算新的 ProMP 权重 $w$。
2. 创建向量 $x$,将条件 $s$(即不同的物体位置和机器人初始姿态)附加到 ProMP 权重 $w$ 上,得到 $x = [w^T, s^T]$。
3. 使用 Welford 方法,利用 $x$ 增量式地更新均值和协方差,该方法能快速更新均值和协方差,无需存储所有先前的数据。
4. 为了对齐不同时长的演示轨迹,采用动态时间规整(Dynamic Time Warping)方法。
1.2 人为因素实验
1.2.1 实验设置
- 参与者 :18 名参与者自愿参加实验,并在参与前签署了知情同意书。实验前询问了他们的游戏和远程操作经验。
-
实验条件 :将所提出的方法与其他三种适应训练技能模型的方法进行比较。这四种方法由两种学习机制(在线学习或离线学习)和两种教学设备(触觉界面或示教器)组合而成,具体如下表所示:
| 方法 | 学习机制 | 教学设备 |
| ---- | ---- | ---- |
| OnStyl | 在线学习 | 触觉笔式界面(Geomagic Touch) |
| OnKey | 在线学习 | 通用 PC 键盘模
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



