- 通过 AR 提供实时触觉/力反馈;
- 慢速扩散策略,用于预测低频潜在空间中的高层动作分块;快速非对称分词器实现闭环反馈控制。
ACT、 π 0 \pi_0 π0 采取了动作分块,在动作分块执行期间处于开环状态,无法及时响应环境变化,缺乏触觉输入,无法适应高精度(力控制)任务和及时响应。现有的触觉输入是侧重于观察方面,利用触觉输入提供视觉遮挡或接触状态判断等信息。在数据上,MTDP(Mixed-Teleoperation Demonstration Policy)通过增强现实(AR)技术实现了两大突破性改进:1)异构机器人兼容性 - 克服了传统ALOHA双边控制系统必须使用同构机器人的限制;2)成本优化 - 相比基于专业力/扭矩传感器的触觉反馈方案,显著降低了硬件成本。并且现有的触觉输入的方案均排除了视觉输入。
- 力/扭矩传感器——直接测量末端或关节的力/扭矩数值,高速运动时噪声明显且成本高。
- 触觉传感器
- 电学式触觉传感器——通过电容、电阻等原理感知,空间分辨率较低,且少数型号能直接输出法向力与切向力,且需依赖力/扭矩传感器标定;
- 光学式触觉传感器——通过相机捕捉凝胶变形的高分率图像,追踪凝胶表面的法向/剪切变形场,力/扭矩信息需通过剪切长间接表征。
MTDP 采取 GelSight Mini 和 MCTrac 两种光学式触觉传感器和机器臂关节扭矩传感器。将法向力、剪切力、视觉 RGB 输入输入为统一的visual-tactile policy。
数据集为利用 GelSIght Mini 收集的 30min 的随机交互视频和使用 MCTrac 为剥皮任务收集的 60 次演示,为擦拭任务收集的 80 次演示,为双手抬举任务收集的 50 次演示。
TactAR

25 Hz 是因为限制于 GelSight 帧速率限制。
从二维光流推算力数据依赖传感器的标定,采用可视化三维变形场:
- 标记点提取:通过 OpenCV 从触觉图像 I t I_t It 中提取归一化标记点位置 D t D_t Dt;
- 光流计算:基于得分追踪算法(Gelsight SDK)计算初始帧 D 0 D_0 D0 与当前帧 D t D_t Dt 的二维光流 F t = [ d x , d y ] = F l o w ( D 0 , D t ) F_t=[d_x,d_y]=Flow(D_0,D_t) Ft=
Reactive Diffusion Policy论文阅读笔记

最低0.47元/天 解锁文章
543






