结合Core ML与计算机视觉:模型训练与远程更新全解析
1. 结合Core ML与计算机视觉
在开发处理照片或实时摄像头画面的应用时,计算机视觉能发挥多种作用,比如检测图像中的人脸、识别照片里特定的矩形区域(像交通标志),甚至检测图片中的主要物体。
为了在应用中使用计算机视觉,苹果推出了Vision框架。借助该框架,我们能与Core ML结合,实现复杂的图像识别功能。
1.1 了解Vision框架
Vision框架基于强大的深度学习技术,可完成多种计算机视觉任务,如先进的人脸识别、文本识别、条形码检测等。
使用Vision进行人脸识别时,不仅能获取人脸位置,还能识别眼睛、鼻子、嘴巴等面部特征点。这得益于苹果在幕后广泛运用的深度学习技术。
使用Vision完成大多数任务通常包括以下三个阶段:
1. 创建请求,明确需求,例如使用 VNDetectFaceLandmarksRequest 请求检测面部特征。
2. 设置能分析图像的处理程序。
3. 从结果观察中获取所需信息。
以下代码展示了如何在图像中查找面部特征点:
let handler = VNImageRequestHandler(cgImage: image, options: [:])
let request = VNDetectFaceLandmarksRequest(completionHandler: { request, error in
guard let results = requ
超级会员免费看
订阅专栏 解锁全文
62

被折叠的 条评论
为什么被折叠?



