UIGestureRecognizer的混合使用

手势识别与界面交互优化
本文探讨了在iOS应用中,如何从基本的触摸事件处理升级到使用UIGestureRecognizer类来更高效地处理手势,包括点击、放缩、旋转、滑动和长按等操作。重点介绍了如何实现代理方法,使界面能够同时响应多种手势,以及通过统一实现对View的transform属性调整界面变化。提供了解决方案,帮助开发者提升应用的手势交互体验。

最近在处理一些iOS相关的手势,早期的用法是使用UIView自带的一些touch事件:

 

- (void)touchesBegan:(NSSet *)touches withEvent:(UIEvent *)event;

- (void)touchesMoved:(NSSet *)touches withEvent:(UIEvent *)event;

- (void)touchesEnded:(NSSet *)touches withEvent:(UIEvent *)event;

- (void)touchesCancelled:(NSSet *)touches withEvent:(UIEvent *)event;

 

然后计算点击了哪里,手指移动的方向等等,最后计算出图片平移的位置,旋转的角度,放缩的程度。

 

好吧,这种方法简直是太弱了。

 

最方便的处理手势的方法是使用UIGestureRecognizer相关类:

 

UITapGestureRecognizer

UIPinchGestureRecognizer

UIRotationGestureRecognizer

UISwipeGestureRecognizer

UIPanGestureRecognizer

UILongPressGestureRecognizer

 

分别处理点击,放缩,旋转,滑动,拖动和长按。

 

这些类都很容易使用,但今天我遇到了一个问题,就是能不能让一个界面同时响应放缩,旋转,滑动这三个不同的动作呢。

 

答案是肯定的,具体的做法就是将self设置为上面类对象的delegate,然后实现代理方法:

 

- (BOOL)gestureRecognizer:(UIGestureRecognizer *)gestureRecognizer shouldRecognizeSimultaneouslyWithGestureRecognizer:(UIGestureRecognizer*)otherGestureRecognizer 

{        

    returnYES;

 

这样就可以同时响应了。

 

但还有一个问题,就是界面的跟着变化呢?

 

下面是具体实现:

- (void)twoFingerPan:(UIGestureRecognizer *)gestureRecognizer

{

switch (gestureRecognizer.state) 

            {

                caseUIGestureRecognizerStateChanged:

                {

                    _point = [(UIPanGestureRecognizer *)gestureRecognizer translationInView:self.view];

                    _scrollView.transform = CGAffineTransformMake(cosf(_rotation) * _scale, sinf(_rotation) * _scale, -sinf(_rotation) * _scale, cosf(_rotation) * _scale, _point.x, _point.y);

                }

                    break;

default:

                    break;

            }

}

- (void)twoFingerRotation:(UIGestureRecognizer *)gestureRecognizer

{

            switch (gestureRecognizer.state)

            {

                caseUIGestureRecognizerStateChanged:

                {

                    _rotation = [(UIRotationGestureRecognizer *)gestureRecognizer rotation];

                    _scrollView.transform = CGAffineTransformMake(cosf(_rotation) * _scale, sinf(_rotation) * _scale, -sinf(_rotation) * _scale, cosf(_rotation) * _scale, _point.x, _point.y);

                }

                    break;

default:

                    break;

            }

}

- (void)twoFingerPinch:(UIGestureRecognizer *)gestureRecognizer

{

            switch (gestureRecognizer.state)

            {

              caseUIGestureRecognizerStateChanged:

                {

                    _scale = [(UIPinchGestureRecognizer *)gestureRecognizer scale];

                    _scrollView.transform = CGAffineTransformMake(cosf(_rotation) * _scale, sinf(_rotation) * _scale, -sinf(_rotation) * _scale, cosf(_rotation) * _scale, _point.x, _point.y);

                }

                    break;

              default:

                    break;

            }

 }
就是在不同的UIGestureRecognizer绑定方法中,统一实现对View的transform,这样就可以了,希望对大家有所帮助。
本指南详细阐述基于Python编程语言结合OpenCV计算机视觉库构建实时眼部状态分析系统的技术流程。该系统能够准确识别眼部区域,并对眨眼动作与持续闭眼状态进行判别。OpenCV作为功能强大的图像处理工具库,配合Python简洁的语法特性与丰富的第三方模块支持,为开发此类视觉应用提供了理想环境。 在环境配置阶段,除基础Python运行环境外,还需安装OpenCV核心模块与dlib机器学习库。dlib库内置的HOG(方向梯度直方图)特征检测算法在面部特征定位方面表现卓越。 技术实现包含以下关键环节: - 面部区域检测:采用预训练的Haar级联分类器或HOG特征检测器完成初始人脸定位,为后续眼部分析建立基础坐标系 - 眼部精确定位:基于已识别的人脸区域,运用dlib提供的面部特征点预测模型准确标定双眼位置坐标 - 眼睑轮廓分析:通过OpenCV的轮廓提取算法精确勾勒眼睑边缘形态,为状态判别提供几何特征依据 - 眨眼动作识别:通过连续帧序列分析眼睑开合度变化,建立动态阈值模型判断瞬时闭合动作 - 持续闭眼检测:设定更严格的状态持续时间与闭合程度双重标准,准确识别长时间闭眼行为 - 实时处理架构:构建视频流处理管线,通过帧捕获、特征分析、状态判断的循环流程实现实时监控 完整的技术文档应包含模块化代码实现、依赖库安装指引、参数调优指南及常见问题解决方案。示例代码需具备完整的错误处理机制与性能优化建议,涵盖图像预处理、光照补偿等实际应用中的关键技术点。 掌握该技术体系不仅有助于深入理解计算机视觉原理,更为疲劳驾驶预警、医疗监护等实际应用场景提供了可靠的技术基础。后续优化方向可包括多模态特征融合、深度学习模型集成等进阶研究领域。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值