计算机视觉检测 白皓月,基于视线跟踪的操作界面的人机交互方法研究

本文探讨了基于视线跟踪的新型人机交互界面,利用双目立体视觉实时追踪用户视线,动态推荐科研瞄准目标。提出的模型利用瞳孔空间形态精确跟踪,结合ORB特征描述与RANSAC配准,提供高精度与鲁棒性的物体选择。实验结果显示,系统具有2.6°的视线跟踪误差,推荐物体最多12个,帧率为25fps,适合实时敏捷瞄准应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘要:

人机交互主要是研究人与计算机之间的信息交换,是与人机工程学,认知心理学,虚拟现实技术,多媒体技术等密切相关的综合学科.本文研究的基于视线跟踪的操作界面的人机交互方法采用桌面式双目立体视觉实时跟踪双眼视线.同时为满足科研项目敏捷瞄准需求,采用动态背景下的运动物体检测方法实时推荐物体,确定操作者视线选定的物体,以便进行跟踪操作.本文提出了基于瞳孔空间形态的双眼视线跟踪模型.该模型采用基于低灰度值分布的瞳孔中心定位方法,该方法定位准确,计算速度快,且不需要设定准确的阈值.该模型采用基于极坐标径向导数图的瞳孔边缘检测方法,提高检测准确性与鲁棒性.通过随机抽样一致性算法(Random sample consensus,RANSAC)进行瞳孔椭圆拟合,结合双目立体视觉模型与系统参数计算瞳孔空间信息,最终得到视线落点坐标.本文提出了一种配合视线人机交互的物体推荐模型.该模型采用定向二进制简单描述符(Oriented brief,ORB)算法提取,描述特征点,结合快速最近邻搜索(Fast Library for Approximate Nearest Neighbors,FLANN)与RANSAC算法隔帧配准差分,通过连通域筛选得到推荐物体结果.在检测流程中,引入闭环阈值调节过程,使该模型适用于不同场景,提高了系统的鲁棒性.实验表明,本文研究的基于视线跟踪的操作界面的人机交互方法,视线跟踪最大误差为2.6?.物体推荐模型最多推荐12个物体,帧率为25 fps.在满足实时性要求的同时,具有较高的准确性与鲁棒性,为基于视线跟踪的敏捷瞄准系统提供了有效的解决方案.

展开

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值