JAKA+aruco+realsense+眼在手外的手眼标定

参考文章

具体步骤

1.跑通机械臂

(机械臂的运行节点商家一般会给,注意看使用说明里面的信息,容易踩雷)

//在工作空间source一下
source devel/setup.bash
//运行自己的机器人节点(自己的啊!!!)
roslaunch jaka_ros_driver start.launch

2.查看消息

    用户使用说明里面会告诉你表示机器人位姿的(我的是toolpoint,这里有个大雷,后面说)

rostopic list

 3.查看消息类型和内容的指令

//查询话题类型,话题名字记得改哦
rostopic info /robot_driver/tool_point
//查询话题内容
rostopic echo /robot_driver/tool_point

4. 下载鱼香ROS老师酱的手眼标定程序

(老师的驱动我用不了,就略过了,只是用aruco和calibrate两部分,眼在手外和手上的都能用,老师的是手上,我自己的是手外)

基于ROS的手眼标定程序解决方案|支持眼在手外/上_ros手眼标定_鱼香ROS的博客-优快云博客大家好,我是小鱼。今天分享一个自己写的开源程序,欢迎大家围观~1.概览如果教程对你有帮助,可以start一下~若需手眼标定小鱼付费-指导请添加微信:AiIotRobot本程序支持眼在手上和眼在手外两种标定方式包含基础标定程序包,提供多组机器臂工具坐标和Marker坐标即可完成标定本程序在ros kinetic melodic noetic平台测试通过本程序包通过输入两组以上的机械臂姿态信息和相机所识别的标志物的姿态信息,经过程序计算可输出,机械臂末端和相机之间(或机械臂基座和相机)的坐https://blog.youkuaiyun.com/qq_27865227/article/details/120976841在工作空间的src文件下打开终端,clone代码:

git clone https://gitee.com/ohhuo/handeye-calib.git

5.更改aruco里面的launch文件

第一个是realsense驱动的相机,第二个是USB相机,我使用的是第一个,USB的就参考鱼香ROS老师的例子

修改了第8~9行代码,aruco生成的网站:

Online ArUco markers generator

选择original(必选)!!!!id 582,size 50mm(自选)下面的代码的单位是m

 

 6.更改标定文件

眼在手外选第二个,眼在手上选第一个。改了第5行,机器人位姿话题名称(前面有介绍)

 7.回到工作空间

catkin_make

8.依次运行

source develop/setup.bash
//打开机器人的驱动
roslaunch jaka_ros_driver start.launch
source develop/setup.bash
//打开相机
roslaunch handeye-calib aruco_start_realsense_sdk.launch 
source develop/setup.bash
//打开标定程序
roslaunch handeye-calib online_hand_to_eye_calib.launch

 9.不断调整位姿获取数据来计算(我明天再来看标定的结果有没有问题)

遇到的亿点点困难

1.部分报错

pip install transforms3d

(缺什么就pip install)

2.获取不到机械臂的位姿信息

可以被识别的aruco信息👇

不能被识别的机器人位姿信息👇

去查找一下信息格式,看看报错

可以看到,计算需要的消息格式是geometry_msg/PointStamped,但是机器人传递的消息格式是geometry_msg/TwistStamped

ROS中geometry_msgs常用消息类型_马微微?!的博客-优快云博客ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373

有两种消息的描述:

geometry_msg/PoseStamped:

std_msgs/Header header  
geometry_msgs/Pose pose

geometry_msg/TwistStamped:

std_msgs/Header header
geometry_msgs/Twist twist

表示带有时间戳和参考坐标系的速度(这里说的是速度,我感觉有点问题)

于是我查询了JAKA机器人中对于TwistStamped的定义

很明显,这个消息类型是错的,需要进行修改(乌语子),先去看看是哪个程序发布的话题,用info,这里是我已经改好了的,所以是PoseStamped。找到发布者程序connect_robot。

先复制一份再去更改。

code .

添加头文件

#include "geometry_msgs/PoseStamped.h"

找到对应的位置更改代码ctrl+f,参考文章:

Quaternion.CreateFromYawPitchRoll(Single, Single, Single) 方法 (System.Numerics) | Microsoft Learn从给定的绕 Y 轴旋转、绕 X 轴旋转和绕 Z 轴旋转创建新四元数。icon-default.png?t=N7T8https://learn.microsoft.com/zh-CN/dotnet/api/system.numerics.quaternion.createfromyawpitchroll?view=net-5.0人ROS中geometry_msgs常用消息类型_马微微?!的博客-优快云博客ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373ROS中geometry_msgs消息类型https://blog.youkuaiyun.com/weixin_44978295/article/details/123773373

 计算出来了(我更正一下,我之前的博文那个四元数转换是错误的,有误导到大家抱歉,我后面用python写的没有用c++写了,忘记更改了,大家可以看我python四元数转换的博文,我下面的这个标定结果也是不对的,可以看到他的标定结果误差很大,正常的情况应该是像鱼香ros那样,标定的结果误差很小。但是思路就是三部分,发机器人位姿消息,发位姿识别消息以及程序标定。)

<think>嗯,用户这次的问题是关于Realsense相机进行手眼标定的具体操作。从引用内容看,用户已经收集了一些相关资料,但需要系统化的指导。 用户可能正在搭建机器人视觉系统,手眼标定是关键步骤。ta提到“”(eye-to-hand)这种配置,说明相机固定在基座或环境中而非机械臂末端。引用中提到的UR5、JAKA机械臂和Realsense组合很典型,工业场景常见。 注意到几个技术要点:用户提供的引用里提到easy_handeye和handeye-calib两种工具,后者是鱼香ROS开发的。引用3和4特别强调标定精度要求(std<0.005)和aruco码的摆放技巧,这些都需要重点提醒用户。 用户似乎更关注实际操作流程而非理论,所以回复要侧重步骤分解。安全提示很重要,比如标定前要确保机械臂工作空间无碰撞——引用3里提到“多个角度拍摄时靠近二维码”,但没说明安全距离,需要补充。 开源工具选择上,handeye-calib支持模式且有详细博客,比easy_handeye更友好,优先推荐。标定板参数(如markerId=0, size=0.03m)在引用4出现,要提醒用户根据实物修改。 最后考虑用户可能的延伸需求:精度不达标怎么办?标定后验证方法?这些放在相关问题里比较合适。用户引用中所有链接都无效,需要提示查阅原始文档时注意关键词组合。 </think> 以下是基于引用内容的 Realsense (Eye-to-Hand)手眼标定操作指南,整合了关键步骤和注意事项: --- ### **Realsense 手眼标定流程** 1. **环境配置** - **硬件**:Realsense 相机(如 D435i)固定于工作台,机械臂基座(如 UR5/JAKA)。 - **软件**:ROS(Kinetic/Melodic/Noetic)、`handeye-calib` 包[^2]、ArUco 标定板。 - **标定板设置**:在 `aruco.launch` 文件中配置参数: ```xml <arg name="markerId" default="0"/> <!-- 标定板ID --> <arg name="markerSize" default="0.03"/> <!-- 板子边长(单位:米) --> <arg name="ref_frame" default=""/> <!-- 参考坐标系(通常留空) --> ``` 2. **标定步骤** - 步骤1:启动相机与 ArUco 检测 ```bash roslaunch handeye-calib aruco_detector.launch # 检测标定板位姿[^4] ``` - 步骤2:控制机械臂移动到不同姿态,确保相机能稳定看到标定板。 - 步骤3:运行在线标定程序(**模式**): ```bash roslaunch handeye-calib online_hand_on_base_calib.launch # 基座坐标系标定[^2] ``` - 步骤4:采集多组数据(建议 >15 组),程序自动计算相机到机械臂**基座**的变换矩阵。 3. **精度提升技巧** - **距离控制**:相机与标定板距离 0.3-0.5m 效果最佳[^3]。 - **角度覆盖**:机械臂末端需大幅改变位姿(旋转+平移),覆盖工作空间。 - **精度验证**:检查输出结果的标准差(std < 0.005 为优)。 4. **关键注意事项** - 标定板必须与机械臂**基座固定**(模式下标定板在机械臂末端)。 - 相机帧率建议 ≥30Hz,避免运动模糊。 - 若精度不足: - 增大标定板尺寸(如 0.05m)[^4] - 使用更密集的角点检测(如 `corner_refinement=LINES`)[^4]。 --- ### **常见问题解答** - **Q1: 标定结果波动大?** A:检查标定板光照是否均匀,减少环境反光;确保机械臂各轴运动平稳无抖动。 - **Q2: 相机无法识别标定板?** A:调整相机焦距,确保 ArUco 的黑色边框清晰可见;验证 `markerId` 是否与实物一致[^4]。 - **Q3: 坐标变换如何验证?** A:将标定结果应用于物体抓取,测试实际定位偏差;或使用 RViz 可视化坐标关系[^2]。 ---
评论 30
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值