视觉 - 力控制:物理交互中的应用与优化
1. 视觉 - 力控制的必要性
视觉在图像信息充足以确保满秩交互矩阵的情况下,能够提供精确的 6D 定位。然而,它存在一些局限性,比如可能出现局部极小值和姿态模糊问题,导致物体姿态估计出现重大误差。此外,光照条件变化、遮挡等因素容易使图像处理算法失效。在操作过程中,视觉误差表现为手与物体之间的不对齐,这可能导致物理交互任务失败。
位置 - 力控制方法通常需要环境的几何知识来执行特定任务所需的基于位置的轨迹。为了克服这一缺陷,研究人员开始探索使用视觉控制回路代替位置控制回路。计算机视觉可以有效地感知环境,有可能减少或避免对环境建模的需求,并且能够在部分未知和/或动态环境中,在接触阶段前后实现精确的部件对齐。
当涉及不同传感器时,如何有效组合它们的测量值是一个关键问题。一种方法是使用多传感器融合技术,但这种方法不适用于视觉和力传感器,因为它们测量的是根本不同的物理现象。另一种方法是在控制层面结合视觉和力数据。
2. 现有视觉 - 力控制方法
2.1 混合视觉 - 力控制
混合视觉 - 力控制方案的架构类似于混合位置 - 力控制,不同之处在于位置控制器被视觉控制器取代,并且选择矩阵在控制器之后的速度级别应用。视觉控制律的输入根据期望和当前视觉特征(s∗ 和 s)之间的误差计算。为避免执行器级别的冲突,需要确保视觉和力控制器输出 vv 和 vf 的正交性。为此,引入对角选择矩阵 Sf 及其互补矩阵 I - Sf 到两个控制回路中。最终的运动通过以下方式组合视觉和力的贡献:
[v = (I - S_f)v_v + S_fv_f]
其中,vv 是根据一般表达式 6