人工神经网络 (ANN) 已成为现代机器学习的重要组成部分,它们已被用于解决范围广泛的问题,从图像分类到自然语言处理。在本文中,我们将向您展示如何使用 Core ML 框架在 SwiftUI 中构建一个简单的神经网络。
Core ML 将机器学习算法应用于一组训练数据以创建模型。您使用模型根据新的输入数据进行预测。模型可以完成各种各样的任务,这些任务用代码编写很难或不切实际。例如,您可以训练模型对照片进行分类,或直接从照片的像素检测照片中的特定对象。— 来自 Apple 开发者网站
Core ML 支持多种机器学习模型,包括神经网络、树集成、支持向量机和广义线性模型。Core ML 需要 Core ML 模型格式(具有.mlmodel文件扩展名的模型)。
让我们开始。
第一步是设置一个新的 Xcode 项目并添加必要的依赖项。您可以通过单击“文件”>“新建”>“项目”,选择“App”模板,然后选择“SwiftUI”作为用户界面来完成此操作。然后,您需要将 Core ML 框架添加到您的项目中,方法是单击“文件”>“Swift 包”>“添加包依赖项”,然后搜索“CoreML”。
接下来,我们将创建一个新的 SwiftUI 视图来显示我们的神经网络输出。该视图将接受两个输入——输入图像和模型对该图像的预测——并将它们显示在屏幕上。您可以通过将以下代码添加到您的ContentView.swift文件来执行此操作:
imp