CoreML之VNImageCropAndScaleOption

本文深入探讨了苹果Vision框架中的VNImageCropAndScaleOption参数,分析了CenterCrop、ScaleFit和ScaleFill三种图片裁剪与缩放选项如何影响模型输入,从而决定预测结果的准确性,特别关注于坐标转换在人脸检测、landmark识别及物体定位中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

苹果对CoreML框架封装的Vision,极大程度的简化了输入,特别是图片的输入,Vision可以接受任何大小的图片,然后自动将其自动截取到模型要求的大小,这就是VNImageCropAndScaleOption的功能。

今天我们来聊一聊VNImageCropAndScaleOption,其对预测结果的输出有至关重要的影响,主要是因为图片截取方式决定了后续预测数据的坐标转化(如人脸检测的人脸位置、landmark、mobileNet+ssd中被检测物体的位置等),今天我们先初步介绍一下不同的设置对应的图片截取方法。

VNImageCropAndScaleOptionCenterCrop = 0,  // scale image maintaining aspect ratio to fit on the short side and crop centered on the long side
VNImageCropAndScaleOptionScaleFit = 1,    // scale to size required by algorithm
VNImageCropAndScaleOptionScaleFill

三种截图方式的效果如下图

 

如原图为左边的部分,模型要求的大小为interest region size标注的大小。则:

VNImageCropAndScaleOptionCenterCrop

其结果为将原图先等比例缩放,其短边为interest region size的变长,然后从中间截取;

VNImageCropAndScaleOptionScaleFit

其结果为图片内容等比例缩放,然后短边部分进行扩充,即会留下白边;

VNImageCropAndScaleOptionScaleFill

其结果为宽高方向进行缩放,充满目标区域。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值