探索3D机器视觉|显扬科技3D机器视觉在机场行李分拣中的应用

显扬科技利用高速高清三维机器视觉设备和自主识别算法,结合艾利特协作机器人,解决了机场行李分拣的效率低下、人力成本高和误操作问题。通过3D点云匹配实现无序抓取,分拣节拍每小时可达500件,准确率超过99%,显著提升了行李分拣的自动化水平和效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关键词:无序抓取 3D视觉 双目视觉 立体匹配 行李分拣

行业现状:

随着人民生活水平的提高,越来越多的人选择飞机作为出行方式,行李的处理给航空公司带来了许多不便。在2019年,有2160万件行李处理不当,从办理登机手续到机场结账,每件行李都要用上百台电脑监控和人工进行分拣。行李对乘客和对航空公司一样有价值,这不仅存在处理不当的成本,而且存在除客户行李财产损失之外的问题,还可能带来行李分拣用工成本高以及客户流失等问题。

难点:

1.乘客行李种类繁多,分拣效率低;

2.工作人员需要经过培训职业技能,学习成本高;

3.工作人员长期分拣容易疲劳,出现处理不当;

4.机器人部署困难。

解决方案:

针对上述难点,显扬科技研发高速高清三维机器视觉设备,并且独立自主研识别匹配算法搭配灵活及快速分拣的机器人,对机场行李进行分拣。

步骤:

1. 搭建工作环境,安装艾利特EC66机械臂,然后将显扬科技HY-M5 3D视觉相机安装在传送带上,在进行立体标定,手眼标定,然后在机械臂末端安装合适的夹具。

2. 部署机器人后,使用显扬的HY VisionStudio对传送带过来的行李,获取行李的2D图像和3D点云,然后行李相应的识别算法进行匹配,就可以计算获得被抓物体的位姿。

3. 引导艾利特协作机器人进行行李分拣。

 显扬科技HY-M5 3D视觉相机

 艾利特EC66机械臂

优势:

显扬科技的HY-M5 3D视觉图像采集速度每秒高达300帧,精度可达亚微米级,具有高稳定性。视觉软件搭配相应的匹配算法可以实现紧密贴合,反光等物体的无序抓取有序放置。

该解决方案抓取节拍达每小时500件,准确率高达99%以上,3D识别精度可保证在0.01mm—1mm之间,节约企业用工成本,提升企业生产效率,操作简单,学习成本低。

显扬科技专注研发并产业化高速高清三维机器视觉设备、智能协作机器人系统,使命是“让人类高效地用好机器人”。目前,显扬科技自主研发的三维机器视觉兼容多种品牌的机器人并已成功应用于食品、电器、陶瓷、物流、教育科技、新零售等行业。此外,显扬科技生态系统包括以下品牌:UR优傲协作机器人 、AUBO遨博移动机器人、Franka Emika 协作机器人、艾利特Elite协作机器人、Kuka iiwa 协作机器人、ABB工业机器人、海康工业镜头 、海康工业相机、伯朗特工业机器人、 爱普生Epson工业机器人、 robotiq夹爪 、robotiq真空吸盘、robotiq腕部相机、慧灵机器人电爪 、大寰机器人电爪、研华工控机、超恩工控机、创想三维3D打印机 、Mir AGV、机器人关节、精密机械加工服务。

### 钣金件多目视觉测量技术与方法 #### 1. 多目视觉系统的定义与原理 多目视觉系统是一种通过多个摄像头协同工作来获取物体三维信息的技术。它利用三角测量法或其他几何计算方法,结合不同视角下的图像数据重建目标对象的空间模型[^1]。 #### 2. 应用于钣金件的质量控制 在钣金件制造过程中,多目视觉测量能够实现高精度的尺寸检测以及表面缺陷识别。相比于传统的接触式测量工具,如卡尺或三坐标测量机(CMM),该技术具有非接触性和快速性的特点[^4]。例如,在汽车行业中使用的显扬科技自主研发的3D机器视觉设备(HY-M5),可以完成全场扫描采集并提供详细的点云数据,这对于评估复杂曲面钣金件尤为重要[^3]。 #### 3. 关键组件和技术参数 为了成功实施多目视觉测量方案,需考虑以下几个方面: - **硬件配置**: 包括工业级摄像机、特定波长光源(见光源颜色的选择)[^2] 和精确校准后的镜头组合; - **软件算法开发**: 主要涉及特征提取、匹配算法设计及其优化过程; - **性能指标设定**: 明确所需达到的速度、分辨率及重复性等标准。 #### 4. 实际案例分析 假设某工厂正在生产一批结构复杂的车门框架类钣金部件,则可以通过部署一套由至少两个同步触发工作的高速CCD相机组成的双目/多目立体视觉系统来进行在线监测。这些相机会捕捉到工件的不同侧面影像,并将其传输给计算机处理单元进行实时运算得出最终结果——即实际物理位置相对于理想CAD模型之间的差异情况报告单。 ```python import numpy as np from scipy.spatial.transform import Rotation as R def calculate_3d_coordinates(image_points, camera_matrices): """ 计算基于两幅或多幅图片对应点集的世界坐标系下三维坐标 参数: image_points (list): 各视图上的投影点列表 [[u1,v1],...,[un,vn]] camera_matrices(list of ndarray): 每台摄像装置对应的内外参矩阵 返回值: world_coords(ndarray): 物体表面上各采样点的真实空间分布向量组形式表示 """ # 假设已知所有参与协作拍摄任务的摄影头内部参数K_i和外部姿态[R|t]i A = [] b = [] for i in range(len(camera_matrices)): K_inv = np.linalg.inv(camera_matrices[i][:3,:3]) rvec = R.from_matrix(camera_matrices[i][:3,-1].reshape((3,1))) u,v = image_points[i] temp = [-f*(rvec.apply([X,Y,Z]) + T) for f,X,Y,Z,T in zip(K_inv.diagonal(),*image_points,camera_matrices[:,3])] A.extend(temp[:2]) b.append(-temp[-1]) solution,_ ,_,_=np.linalg.lstsq(np.array(A),np.array(b)) return solution.reshape((-1,)) ``` 上述代码片段展示了如何根据输入的一系列二维像素坐标转换得到相应的世界坐标系内的三维位置矢量集合。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值