简化机器人编程框架与凝视辅助视觉定位技术
在当今的制造业中,机器人的应用越来越广泛,而如何实现高效的人机协作成为了关键问题。本文将介绍一种简化机器人编程框架以及凝视辅助视觉定位系统,旨在提高机器人执行复杂任务的效率和准确性。
1. 机器人编程框架相关技术
1.1 3D物体检测
利用灰度图像和3D点云数据进行3D物体检测。具体操作步骤如下:
1. 使用faster - RCNN模型检测输入零件的2D边界框。
2. 利用检测到的2D边界框对3D点云进行分割。
3. 借助计算机视觉库Halcon,结合零件的3D CAD模型来确定零件的6D姿态,通过实验实现了平均精度为 - 0.5 mm的姿态估计。
1.2 自主移动机器人(AMRs)
选择MIR 200并配备额外的锁止系统来搬运手推车上的零件。集成步骤如下:
1. 利用其REST API和ROS驱动将MIR集成到模块化框架中。
1.3 无碰撞运动规划
评估了来自开源运动规划库MoveIt!的三种运动规划算法:RRT、RRT - star和RRT - connect。由于使用的是7轴机器人,冗余轴可能导致关节空间中路径过长,因此选择RRT - star算法以获得更优的轨迹,尽管其运行时间较长。通过使用V - HACD库对3D场景进行凸分解,显著减少了加载碰撞场景和运动规划所需的时间。
2. 人机交互技术
2.1 基于技能的机器人编程和界面
开发了用于简化机器人编程的GUI,可通过涉及对象的3D模型指定各种任务,如拾取和放置。支持2指和3指抓取
超级会员免费看
订阅专栏 解锁全文
9万+

被折叠的 条评论
为什么被折叠?



