Apple发布Core ML,为Apple设备提供了机器学习功能

Apple在WWDC2017上推出了CoreML,一种使开发人员能够在其应用中集成机器学习模型的新API。此API支持iOS、macOS、watchOS和tvOS上的设备,并允许数据保留在本地。CoreML内置了多种预训练模型,包括计算机视觉和自然语言处理任务,并支持自定义模型。

Apple在WWDC 2017大会上发布了一种使用机器学习的方式,以及一种开发人员在自身应用中添加机器学习的方式。

\\

Apple新发布的机器学习API称为Core ML,允许开发人员将机器学习模型集成到App中,App运行于采用iOS、macOS、watchOS和tvOS的Apple设备上。由于模型驻留在设备上,因此数据不会离开设备。

\\

Core ML提供了应用开发人员可用的多种API调用,无需开发人员在App中额外添加任何模型。例如,它所提供的计算机视觉算法包括了面部识别和追踪、特征点检测和事件识别。开发人员也可调用Core ML做自然语言分析,例如实现对电子邮件、文本和Web页面的分析。自然语言处理API调用包括了语言检测、标记化(Tokenization)、词性标注(POS tagging)抽取和命名实体识别等。

\\

29e9427a81ff45a2edae35fc7ade74a6.jpg

\\

开发人员也可以设计并使用自己的机器学习模型。Core ML支持超过30层的深度神经网络,也支持其他一些机器学习方法,例如SVM和线性模型。在设备上可以使用CPU和GPU,这为在Apple设备上运行强大的算法提供了很大的空间。

\\

Apple提供了一些预先训练好的模型,开发人员可以下载它们到自己的App中。在Apple开发者网站上提供的一个模型可检测205种图像场景(例如候机楼或卧室)。另外还提供了三种模型,可用于检测图像中的对象。开发人员也可以使用Apple提供的转换工具,将一些已有的模型转换为Core ML格式。该工具支持的机器学习工具包括:Keras(使用Tensorflow作为后端)、Caffe、Scikit-learn、libsvm和XGBoost。但是它不支持将已有的Tensorflow模型导入Core ML中,这在用于Android的Tensorflow Lite上是支持的。

\\

对于那些想在自身App中添加人工智能的开发人员,可以访问Core Ml的官方文档

\\

17575b3702919254a2f487ca7ff3932e.jpg

\\

查看英文原文: Apple Announces Core ML: Machine Learning Capabilities on Apple Devices

\\
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值