机器人手眼协调与空间机器人控制技术解析
1. 全自由度免校准机器人手眼协调
1.1 视觉映射模型
在机器人手眼协调系统中,当定义了目标特征向量后,可通过图像处理提取其位置和动态信息。在第 $k$ 次视觉采样时刻,图像平面上的特征位置、速度和加速度向量分别表示为 $f$、$\dot{f}$ 和 $\ddot{f}$,存在如下关系:
$\dot{f}(k) = \dot{f}_o(k) + \dot{f}_c(k)$,其中 $\dot{f}_o$ 是由目标运动引起的图像平面特征运动,$\dot{f}_c$ 是由相机运动引起的特征运动。
特征加速度 $\ddot{f}(k)$ 由目标与相机的相对运动决定,它与特征位置 $f$、速度 $\dot{f}$ 和手的加速度 $\ddot{p}(k)$ 相关,得到映射模型:
$\ddot{f}(k) = g’ (f(k), \dot{f}(k), \ddot{p}(k))$。
由于目标特征数量与机器人手的控制自由度数量相同,该方程的输入输出维度相同,系数矩阵通常满秩,可交换输入输出关系得到从图像特征空间到机器人运动空间的逆映射模型:
$\ddot{p}(k) = g (f(k), \dot{f}(k), \ddot{f}(k))$,此模型称为视觉映射模型,它非线性地关联了手的运动与图像特征空间中目标的运动,且输入输出维度相同。
这种输入输出空间维度相同的特性对于避免跟踪奇异性非常重要,当使用的图像特征不足以反映机器人在某些方向的运动时,跟踪过程中手的某些自由度可能会控制不足。而机器人控制空间和图像特征空间维度相同的方案虽不能从理论上消除跟踪奇异性,但在实践中可以保证消除该问
机器人手眼协调与空间控制技术
超级会员免费看
订阅专栏 解锁全文
3134

被折叠的 条评论
为什么被折叠?



