探索Core ML与自然语言处理在iOS开发中的应用
1. Core ML场景分类
1.1 问题提出
在某些图像中,人物同时佩戴了护林员帽子和太阳镜,需要判断这是徒步旅行场景还是海滩场景。应用的目标是在图像中的人物头上绘制适合场景的配饰,当前应用同时绘制了两种配饰,需要进行修正。
1.2 Core ML模型介绍
本应用使用Places205 - GoogLeNet模型,该模型尝试将图像场景的背景分类为205种地点之一,如灯塔、冰屋、鞋店、火车站台等。此模型已包含在项目中,文件名为GoogLeNetPlaces.mlmodel。
模型结构如下:
- 模型元数据 :最重要的值是模型类型,为神经网络分类器。分类器会查看输入并分配标签,在本案例中,神经网络评估图像并返回位置描述。此外,Core ML还支持树集成、支持向量机和管道模型。
- 模型评估参数 :
- 输入 :sceneImage,是一个224x224的RGB图像,Vision会自动调整输入图像以适应模型所需的大小。
- 输出 :
- sceneLabel:分类标签,是最可能的场景类型,为字符串。
- sceneLabelProbs:一个字典,列出了图像属于每个已知场景的概率。由于机器学习存在不精确性,某些图像可能难以分类,图像可能有多个概率相近的标签,或者所有标签的概率都很低,因此最可能的sceneLabel可能只是噪声。
超级会员免费看
订阅专栏 解锁全文
414

被折叠的 条评论
为什么被折叠?



