Spark 大规模机器学习(三)

原文:zh.annas-archive.org/md5/7A35D303E4132E910DFC5ADB5679B82A

译者:飞龙

协议:CC BY-NC-SA 4.0

第七章:调整机器学习模型

调整算法或机器学习应用程序只是一个过程,通过这个过程,可以使算法在优化影响模型的参数时以最佳方式运行(以运行时间和内存使用方面)。本章旨在指导读者进行模型调整。它将涵盖用于优化 ML 算法性能的主要技术。技术将从 MLlib 和 Spark ML 的角度进行解释。在第五章和第六章中,我们描述了如何从数据收集到模型评估开发一些完整的机器学习应用程序和管道。在本章中,我们将尝试重用其中一些应用程序,通过调整一些参数(如超参数调整、MLlib 和 Spark ML 的网格搜索参数调整、随机搜索参数调整和交叉验证)来提高性能。还将讨论假设,这也是一个重要的统计测试。总之,本章将涵盖以下主题:

  • 有关机器学习模型调整的详细信息

  • 模型调整中的典型挑战

  • 评估机器学习模型

  • 验证和评估技术

  • 机器学习的参数调整

  • 假设检验

  • 机器学习模型选择

有关机器学习模型调整的详细信息

基本上,可以说机器学习(ML)的最终目标是制造一台可以自动从数据中构建模型的机器,而不需要繁琐和耗时的人类参与。你会发现机器学习中的一个困难是学习算法,如决策树、随机森林和聚类技术,需要在使用模型之前设置参数。或者,您需要对这些参数设置一些约束。

如何设置这些参数取决于一系列因素和规格。在这方面,您的目标通常是将这些参数设置为最佳值,以使您以最佳方式完成学习任务。因此,调整算法或 ML 技术可以简单地被认为是一个过程,通过这个过程,您可以优化影响模型性能的参数,以使算法以最佳方式运行。

在第三章,“通过了解数据来理解问题”,和第五章,“通过示例进行监督和无监督学习”,我们讨论了一些根据数据选择最佳算法的技术,并讨论了最广泛使用的算法。为了从模型中获得最佳结果,您必须首先定义“最佳”是什么。我们将以抽象和具体的方式讨论调整。

在机器学习的抽象意义上,调整涉及使用已经确定影响系统性能的变量或基于参数,通过一些适当的度量来评估。因此,改进的性能揭示了哪些参数设置更有利(即调整)或不利(即未调整)。在常识层面上,调整实质上是选择算法的最佳参数,以优化其性能,考虑到硬件的工作环境、特定工作负载等。机器学习中的调整是一个自动化的过程。

好吧,让我们通过一些例子更具体地讨论这个问题。如果你选择一个用于聚类的 ML 算法,比如 KNN 或 K-Means,作为开发者/数据科学家/数据工程师,你需要指定模型或质心中的 K 的数量。

因此,问题是“你如何做到这一点?”从技术上讲,没有绕过调整模型的必要。计算上,一个天真的方法是尝试不同的 K 值作为模型,当然观察当你改变模型中的 K 的数量时,它如何转向组内和组间误差。

第二个例子可能是使用支持向量机SVM)进行分类任务。正如你所知,SVM 分类需要一个初始学习阶段,其中训练数据用于调整分类参数。这实际上表示一个初始的参数调整阶段,你可能会尝试调整模型以获得高质量的结果。

第三个实际例子表明,没有一套完美的优化适用于所有 Apache Web 服务器的部署。系统管理员从工作中的数据中学习,适当地优化其特定环境的 Apache Web 服务器配置。现在想象一个自动化过程来完成这三件事,也就是说,一个可以自行从数据中学习的系统;这就是机器学习的定义。一个以这种基于数据的方式调整自己参数的系统将是机器学习中调整的一个实例。现在,让我们总结为什么我们评估模型的预测性能的主要原因:

  • 我们希望估计泛化误差,即我们的模型在未来(未见过的)数据上的预测性能。

  • 我们希望通过调整学习算法并从给定的假设空间中选择表现最佳的模型来提高预测性能。

  • 我们想要确定最适合手头问题的机器学习算法;因此,我们想要比较不同的算法,选择表现最佳的算法以及该算法假设空间中表现最佳的模型。

简而言之,在找到最佳参数集的过程中有四个步骤:

  • 定义参数空间:首先,我们需要决定我们想要考虑的算法的确切参数值。

  • 定义交叉验证设置:其次,我们需要决定如何为数据选择最佳的交叉验证折叠(将在本章后面讨论)。

  • 定义度量标准:第三,我们需要决定使用哪种度量标准来确定最佳参数组合。例如,准确度、均方根误差、精确度、召回率或 F 分数等等。

  • 训练、评估和比较:第四,对于每个参数值的唯一组合,进行交叉验证,并根据用户在第三步中定义的错误度量,可以选择表现最佳的模型。

模型调整有许多可用的技术和算法,比如超参数优化或模型选择、超参数调整、网格搜索参数调整、随机搜索参数调整和交叉验证CV)。不幸的是,Spark 的当前实现只开发了其中的一部分,包括交叉验证器和训练验证拆分。

因此,我们将尝试使用这两个超参数来调整不同的模型,包括随机森林、线性回归和逻辑回归。一些来自第五章和第六章的应用将被重新使用,而不再提供许多细节,以使模型调整更容易。

模型调优中的典型挑战

在以下讨论之后,您可能会认为这个过程很困难,您是对的。事实上,由于确定最佳模型参数的困难,通常在有效地尝试更简单的选项之前会使用一些更复杂的学习算法,这些选项具有更好调整的参数。正如我们已经讨论过的,机器学习涉及大量的实验。调整学习算法的内部旋钮,通常称为超参数,从模型构建到预测以及部署之前同样重要。

从技术上讲,在训练数据集上使用不同超参数设置运行学习算法将导致不同的模型,当然也会有不同的性能参数。据 Oracle 开发人员称,不建议在没有首先确立清晰目标的情况下开始调优,因为如果没有成功的定义,就不可能成功。

随后,我们通常有兴趣从训练数据集中选择表现最佳的模型;我们需要找到一种方法来估计它们各自的性能,以便将它们彼此排名。在超越纯粹的算法微调之后,我们通常不仅仅是在尝试我们认为在给定情况下是最佳解决方案的单一算法。往往我们想要将不同的算法相互比较,通常是在预测和计算性能方面。

通常有一个非常基本的问题,即使用网格搜索和随机搜索进行参数调优。通常,一些机器学习方法需要使用其中之一来调整参数。例如,根据 Wei Ch.等人的说法,(支持向量机的一般公式,第 9 届国际神经信息处理会议论文集(ICONIP,02),V-5,2002 年 11 月 18-22 日) SVM 的标准公式如下:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00086.jpeg

图 1:SVM 的标准公式

现在,假设我们需要调整模型参数 C,并且需要轻松地进行调整。从方程中可以清楚地看到,调整 C 还涉及其他参数,如xiiw;其中,正则化参数 C > 0,是 w 的范数。在 RHS 中,它是稳定器,https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00100.jpeg)的经验损失项。在标准 SVM(线性 SVM 或其他变体)中,可以通过解决凸二次优化问题进一步最小化正则化功能。一旦问题解决了,它就保证了获得最佳预测性能的唯一全局最小解。因此,整个过程多多少少是一个优化问题。

总之,图 2,模型调优过程、考虑和工作流程显示了调优过程及其考虑作为工作流程:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00061.jpeg

图 2:模型调优过程、考虑和工作流程

现在,如果您获得了原始数据集,您很可能会进行预处理并将数据集分成训练集和测试集。因此,要调整超参数 C,您需要首先将训练集分成验证训练集和验证测试集。

之后,您可以尝试使用验证训练集和验证测试集来调整参数。然后使用您得到的最佳参数在完整的训练集上重新训练模型。现在您可以在测试集上执行测试作为最后一步。

到目前为止,您的方法似乎还可以,但以下两个选项中哪一个平均更好呢?

  • 使用在验证训练集上训练的最终模型进行最终测试会更好吗?

  • 或者最好使用整个训练集,并使用网格或随机搜索的最佳参数重新训练模型吗?尽管这些参数未针对此集进行优化,但在这种情况下,我们有最终的训练数据。

您打算选择选项 1 吗,因为参数已经在此训练(即验证训练集)集上进行了优化?还是您打算选择选项 2,因为尽管这些参数未针对训练集进行优化,但在这种情况下,您有最终的训练数据?我们建议您选择选项 2,但前提是您信任选项 2 中的验证设置。原因是您已执行了交叉验证CV)以确定最通用的参数设置,否则模型选择或您尝试优化的任何其他内容。这些发现应该应用于整个训练集,并在测试集上进行一次测试。

好吧,假设您选择了选项 2;现在第二个挑战正在发展。我们如何估计机器学习模型的性能?从技术上讲,您可能会认为我们应该将训练数据提供给我们的学习算法,以学习最佳模型。然后,我们可以基于测试标签预测标签。其次,我们计算测试数据集上的错误预测数量,以计算模型的错误率。

就这样?朋友,不要那么着急!根据我们的目标,不幸的是,估计该模型的性能并不那么微不足道。也许我们应该从另一个角度来解决前面的问题:我们为什么要关心性能估计?理想情况下,模型的估计性能告诉我们它在未观察到的数据上的表现如何-在应用机器学习或开发新算法的应用中,对未来数据进行预测通常是我们想要解决的主要问题。

最后,还有其他几个挑战,取决于数据结构、问题类型、问题领域和适当的用例,当您开始大量练习时,您将遇到这些挑战。

评估机器学习模型

在这一部分,我们将讨论如何评估机器学习模型,因为您应该始终评估模型,以确定它是否准备好始终表现良好,预测新数据和未来数据的目标。显然,未来的数据可能有许多未知的目标值。因此,您需要检查性能相关的指标,如数据上的 ML 模型的准确度指标。在这方面,您需要提供一个包含从训练模型生成的分数的数据集,然后评估模型以计算一组行业标准的评估指标。

要适当评估模型,您需要提供一个已标记目标的数据样本,这些数据将用作来自训练数据源的地面真相或事实数据集。正如我们已经讨论过的那样,使用相同的训练数据集评估 ML 模型的预测准确度可能没有用。

原因是模型本身可以根据其接收的奖励记住训练数据,而不是从中概括。因此,当 ML 模型训练完成时,您可以从模型中呈现的观察中了解要预测的目标值。之后,您可以将您训练的 ML 模型返回的预测值与已知的目标值进行比较。

最后,您可能对计算总结指标感兴趣,该指标显示性能指标,以指示预测值和真实值匹配的准确度参数,如精确度、召回率、加权真正例、加权真负例、提升等。然而,在这一部分,我们将特别讨论如何首先评估回归、分类(即二元分类、多类分类)和聚类模型。

评估回归模型

假设您是一名在线货币交易员,您在外汇或 Fortrade 上工作。现在您心中有两个货币对要买入或卖出,例如 GBP/USD 和 USD/JPY。如果您仔细观察这两个货币对,您会发现 USD 在这两个货币对中都是共同的。现在,如果您观察 USD、GBP 或 JPY 的历史价格,您可以预测未来的结果,即您应该开仓买入还是卖出。

这种问题可以被视为典型的回归问题。在这里,目标变量(在这种情况下是价格)是一个随时间变化的连续数值,基于市场开盘时间。因此,为了根据给定的某种货币(例如本例中的 USD、GBP 或 JPY)的特征值做出价格预测,我们可以拟合一个简单的线性回归或逻辑回归模型。

在这种情况下,特征值可以是历史价格和一些外部因素,这些因素会使某种货币或货币对的价值发生变化。通过这种方式,训练好的模型可以预测某种货币的价格。

回归模型(即线性、逻辑或广义线性回归模型)可用于找到或计算我们训练的相同数据集的分数,现在可以使用所有货币的预测价格或这三种货币的历史价格。我们可以通过分析预测价格与实际价格相比平均偏离多少来进一步评估模型的性能。通过这种方式,人们可以猜测预测价格是上涨还是下跌,并可以从外汇或 Fortrade 等在线货币网站赚钱。

评估二元分类模型

正如我们在二元分类场景中已经讨论过的,目标变量只有两种可能的结果。例如:{0, 1},{垃圾邮件,快乐},{B,N},{false,true}和{负面,正面}等。现在假设您获得了一个包含世界各地研究人员的人口统计学、社会经济和就业变量的数据集,并且您想要预测博士奖学金金额(即薪水水平)作为一个二元变量,其值为,比如{<=1.5K , > = 4.5 K ,>=4.5K >=4.5K}。

在这个特定的例子中,负类将代表薪水或奖学金每月低于或等于 1500 美元的研究人员。因此,另一方面,正类代表薪水高于或等于 4500 美元的所有其他研究人员。

现在,从问题场景中可以清楚地看出,这也是一个回归问题。因此,您将训练模型,对数据进行评分,并评估结果,看看它与实际标签相差多少。因此,在这种类型的问题中,您将进行实验,评估两类(即二元类)逻辑回归模型的性能,这是 ML 领域中最常用的二元分类器之一。

评估多类分类模型

在第六章中,构建可扩展的机器学习管道,我们开发了几个应用程序和管道,您可能还记得我们还使用逻辑回归为 OCR 数据集开发了一个多类分类问题,并使用多类指标显示了结果。在该示例中,有 26 个类别对应 26 个字符(即从 A 到 Z)。我们必须预测某个字符的类别或标签,以及它是否真的属于正确的类别或标签。这种回归问题可以使用多类分类方法解决。

因此,在这种类型的问题中,您还将进行实验,评估多类(即两类以上)逻辑回归模型的性能。

评估聚类模型

由于聚类模型在许多不同方面与分类和回归模型有显著差异,如果您评估一个聚类模型,您将找到一组不同的统计数据和与聚类模型相关的性能指标。在聚类模型评估技术中返回的性能指标描述了每个簇分配了多少数据点,簇之间的分离程度以及数据点在每个簇内的紧密程度。

例如,如果您回忆一下,在第五章中,通过示例进行监督和无监督学习,您会发现我们讨论并使用 Spark ML 和 MLlib 解决了一个聚类问题,在使用 Spark 进行无监督学习:示例部分。在这个特定的例子中,我们展示了使用 Saratoga NY Homes 数据集的 K-Means 聚类,并基于价格和地块大小特征对位于同一地区的房屋可能的邻域进行了探索性分析。这种问题可以使用聚类模型解决和评估。然而,Spark 的当前实现尚未为模型评估提供任何发展的算法。

验证和评估技术

在机器学习应用开发中有一些广泛使用的术语可能有点棘手和令人困惑,所以让我们一起讨论并梳理一下。这些术语包括模型、目标函数、假设、混淆矩阵、模型部署、归纳算法、分类器、学习算法、交叉验证和参数:

  • 目标函数:在强化学习或预测建模中,假设我们专注于对一个对象进行建模。最终目标是学习或逼近一个特定且未知但有针对性的函数。目标函数表示为f(x) = y;其中xy都是变量,f(x)是我们想要建模的真实函数,它也表示我们试图最大化或实现目标值y

  • 假设:统计假设(不要将其与研究者提出的研究假设混淆)是一个可通过观察过程进行测试的广义函数。该过程类似于通过训练数据集中的一组随机变量对建模的真实函数进行测试。假设检验的目标是提出一个假设,以测量两个数据集之间的统计关系,例如训练集和测试集,其中,这两个数据集都必须与理想化模型(记住不是随机化或标准化模型)具有统计显著性。

  • 学习算法:如前所述,机器学习应用的最终目标是找到或逼近目标函数。在这个持续的过程中,学习算法是一组指令,它使用训练数据集对目标函数进行建模。从技术上讲,学习算法通常伴随着一个假设空间,并制定最终的假设。

  • 模型:统计模型是一个数学模型,它在生成样本和类似数据时体现了一组假设。最终,该模型通常代表了数据生成过程的一个显著理想化形式。此外,在机器学习领域,假设和模型这两个术语经常可以互换使用。

  • 归纳算法:归纳算法接受特定实例的输入,以产生超出这些输入实例的广义模型。

  • 模型部署:模型部署通常表示将已构建和开发的模型应用于实际数据,以对一个示例进行预测。

  • 交叉验证:这是一种通过将数据分成大约相等大小的 K 个互斥子集或折叠来估计机器学习模型的准确性的方法。然后,模型在迭代中进行 K 次训练和测试,每次在可用数据集上排除一个折叠,然后在该折叠上进行测试。

  • 分类器:分类器是假设或离散值函数的特殊情况,用于为特定数据点分配最分类类别标签。

  • 回归器:回归器也是假设的一种特殊情况,它将未标记的特征映射到预定义度量空间内的值。

  • 超参数:超参数是机器学习算法的调整参数,学习算法将训练数据拟合到这些参数上。

根据 Pedro D. 等人在homes.cs.washington.edu/~pedrod/papers/cacm12.pdf中的 关于机器学习的一些有用的东西,我们还需要概述一些其他事项,如下所示:

  • 表示:分类器或回归器必须用计算机可以处理的某种形式语言表示,从而创建适当的假设空间。

  • 评估:需要一个评估函数(即目标函数或评分函数)来区分好的分类器或回归器与坏的分类器或回归器,该函数由算法内部使用,用于构建或训练模型。

  • 优化:我们还需要一种在分类器或回归器中搜索的方法,以寻求最高得分。因此,优化是决定学习者效率的关键,有助于确定最佳参数。

简而言之,在机器学习算法中学习的关键公式是:

学习 = 表示 + 评估 + 优化

因此,为了验证和评估训练好的模型,您需要非常清楚地理解上述术语,以便能够概念化机器学习问题以及 Spark ML 和 MLlib API 的正确用法。

机器学习模型的参数调整

在本节中,我们将讨论调整参数和技术,例如超参数调整、随机搜索参数调整、网格搜索参数调整和交叉验证等机器学习模型的调整参数和技术。

超参数调整

超参数调整是一种根据所呈现数据的性能选择正确参数组合的技术。这是从实践中获得机器学习算法的有意义和准确结果的基本要求之一。例如,假设我们有两个要调整的超参数,用于 图 3 中呈现的管道,即使用逻辑回归估计器的 Spark ML 管道模型(虚线仅在管道拟合期间发生)。

我们可以看到我们为每个参数放入了三个候选值。因此,总共会有九种组合。然而,图中只显示了四种,即 TokenizerHashingTFTransformerLogistic RegressionLR)。现在我们要找到最终会导致最佳评估结果的模型。正如我们在第六章中已经讨论的那样,拟合模型由分词器、哈希 TF 特征提取器和拟合的逻辑回归模型组成:

超参数调整

图 3:使用逻辑回归估计器的 Spark ML 管道模型(虚线仅在管道拟合期间发生)

图 3 显示了先前提到的管道的典型工作流程。然而,虚线仅在管道拟合期间发生。

如前所述,拟合的管道模型是一个转换器。转换器可用于预测、模型验证和模型检查。此外,我们还提到 ML 算法的一个不幸的特点是,它们通常有许多需要调整以获得更好性能的超参数。

例如,这些超参数中的正则化程度与 Spark MLlib 优化的模型参数不同。因此,如果没有对数据和要使用的算法的专业知识,很难猜测或衡量最佳的超参数组合。由于复杂数据集是基于 ML 问题类型的,管道的大小和超参数的数量可能呈指数级增长(或线性增长),即使对于 ML 专家来说,超参数调整也变得繁琐,更不用说调整参数的结果可能变得不可靠。

根据spark.apache.org/docs/latest/ml-guide.html提供的 Spark API 文档,用于指定 Spark ML 估计器和转换器的是一个独特且统一的 API。ParamMap是一组具有Param作为命名参数的(参数,值)对,由 Spark 提供自包含文档。从技术上讲,有两种方式可以传递参数给算法,如下所示:

  • 设置参数。例如,如果 LR 是LogisticRegression的一个实例(即估计器),您可以调用setMaxIter()方法如下:LR.setMaxIter(5)。这本质上是将回归实例指向模型的拟合:LR.fit()。在这个特定的例子中,最多会有五次迭代。

  • 第二个选项涉及将ParamMaps传递给fit()transform()(有关详细信息,请参阅图 1)。在这种情况下,任何参数都将被先前通过 ML 应用程序特定代码或算法中的 setter 方法指定的ParamMaps覆盖。

提示

为您的数据集创建一个表现良好的算法的简短列表的一个很好的方法是使用 R 中的 Caret 包,因为 Spark 中的调整不够健壮。Caret 是由辉瑞公司的 Max Kuhn 创建和维护的 R 中的一个包。开发始于 2005 年,后来被开源并上传到 CRAN,实际上 CRAN 是分类和回归训练CARET)的缩写。最初开发是出于运行给定问题的多个不同算法的需求。有兴趣的读者可以访问topepo.github.io/caret/index.html查看该包的理论和实际考虑。

网格搜索参数调整

假设您已经选择了您的超参数,并通过调整应用了调整,现在您还需要找到特征。在这方面,对超参数和特征空间进行完整的网格搜索计算量太大。因此,您需要执行 K 折交叉验证的一次折叠,而不是进行完整的网格搜索:

  • 使用折叠的训练集在交叉验证上调整所需的超参数,使用所有可用的特征。

  • 使用这些超参数选择所需的特征

  • 对 K 中的每个折叠重复计算

  • 最终模型是在使用从 CV 的每个折叠中选择的 N 个最常见特征的所有数据上构建的

有趣的是,超参数也将在交叉验证循环中再次使用所有数据进行调整。与完整的网格搜索相比,这种方法会有很大的缺点吗?实质上,我在每个自由参数的维度上进行线性搜索(找到一个维度上的最佳值,将其保持不变,然后找到下一个维度上的最佳值),而不是每个参数设置的每个组合。

沿着单个参数搜索而不是一起优化的最重要的缺点是忽略了相互作用。很常见的情况是,例如,不止一个参数影响模型复杂性。在这种情况下,您需要查看它们的相互作用,以成功地优化超参数。根据您的数据集有多大以及您比较了多少模型,返回最大观察性能的优化策略可能会遇到麻烦(这对于网格搜索和您的策略都是如此)。

原因是在大量性能估计中搜索最大值会忽略性能估计的方差:您可能最终得到一个看起来不错的模型和训练/测试拆分组合。更糟糕的是,您可能会得到几个看起来完美的组合,然后优化就无法知道选择哪个模型,因此变得不稳定。

随机搜索参数调整

在训练中优化调整参数的默认方法是使用网格搜索。这种方法通常是有效的,但是在存在许多调整参数的情况下,可能效率低下。有一些模型可以在相对较短的时间内找到调整参数的合理值,这是有益的。然而,有一些模型在小范围搜索中的效率可能会抵消其他优化。不幸的是,Spark 目前对超参数调整的实现没有提供任何随机搜索调整的技术。

提示

相反,例如,CARET 中的许多模型利用子模型技巧,其中评估了 M 个调整参数组合;可能远少于 M 个模型拟合所需的数量。当使用简单的网格搜索时,这种方法最有效。因此,使用随机搜索可能效率低下。最后,训练包装的许多模型具有少量参数。平均参数数量为 1.7。要使用随机搜索,trainControl中还有一个选项叫做 search。该参数的可能值是gridrandom。CARET 中包含的内置模型包含生成随机调整参数组合的代码。唯一组合的总数由 train 的tuneLength选项指定。

交叉验证

交叉验证(也称为旋转估计RE))是一种评估统计分析和结果质量的模型验证技术。目标是使模型向独立测试集泛化。

交叉验证技术的一个完美用途是从机器学习模型中进行预测。从技术上讲,如果您想要估计预测模型在实践中的准确性,当您将其部署为 ML 应用程序时,它将会有所帮助。

在交叉验证过程中,模型通常使用已知类型的数据集进行训练。相反,它使用未知类型的数据集进行测试。在这方面,交叉验证有助于使用验证集在训练阶段描述数据集以测试模型。

然而,为了最小化机器学习模型中的缺陷,如过拟合和欠拟合,交叉验证技术提供了关于模型如何泛化到独立集的见解。

有两种类型的交叉验证,可以如下分类:

  • 穷尽交叉验证:包括留 p 法交叉验证和留一法交叉验证

  • 非穷尽交叉验证:包括 K 折交叉验证和重复随机子采样验证交叉验证

由于页面限制,本书不会对这些进行详细讨论。此外,使用 Spark ML 和 Spark MLlib,读者将能够在下一节中按照我们的示例执行交叉验证。

除了时间序列数据外,在大多数情况下,研究人员/数据科学家/数据工程师使用 10 折交叉验证,而不是在验证集上进行测试(其中 K = 10)。这是最广泛应用的交叉验证技术,适用于各种用例和问题类型。此外,为了减少变异性,使用不同分区进行多次交叉验证迭代;最后,对多轮验证结果进行平均。

使用交叉验证而不是传统验证有两个主要优点,如下所述:

  • 首先,如果没有足够的数据可用于在单独的训练和测试集之间进行分区,就有可能失去重要的建模或测试能力。

  • 其次,K 折交叉验证估计器的方差低于单个留出集估计器。这种低方差限制了变异性,如果可用数据量有限,则这一点非常重要。

在这些情况下,正确估计模型预测和相关性能的公平方法是使用交叉验证作为一种强大的通用技术进行模型选择和验证。

机器学习模型选择部分将展示一个更加技术性的例子。让我们举一个具体的例子来说明这一点。假设我们需要对模型调整进行手动特征和参数选择,之后,在整个数据集上进行 10 折交叉验证的模型评估。什么才是最佳策略?我们建议您选择提供乐观分数的策略如下:

  • 将数据集分为训练集(80%)和测试集(20%)或其他比例

  • 使用 K 折交叉验证来调整你的模型

  • 重复交叉验证,直到找到优化的模型,因此调整。

  • 现在使用你的模型在测试集上进行预测,以获得模型外误差的估计

假设检验

假设检验是用于确定结果是否具有统计学意义的统计工具。此外,它还可以用来证明你所得到的结果是偶然发生的还是实际结果。

在这方面,此外,根据 Oracle 开发人员在docs.oracle.com/cd/A57673_01/DOC/server/doc/A48506/method.htm上的说法,某种工作流程将提供更好的性能调整。他们建议的典型步骤如下:

  • 为调整设定明确的目标

  • 创建最小可重复测试

  • 测试假设

  • 保留所有记录

  • 避免常见错误

  • 当达到目标时停止调整

通常,首先计算测试统计量 T 的观察值 tobs。之后,在零假设下计算概率,也称为 p 值。最后,只有当 p 值小于显著性水平(所选概率)阈值时,才会拒绝零假设,支持备择假设。

要了解更多信息,请参考以下出版物:R.A. Fisher 等人,《生物农业和医学研究的统计表》,第 6 版,表 IV,Oliver & Boyd,Ltd.,爱丁堡

以下是两个经验法则(尽管这些可能因数据质量和类型而有所不同):

  • 如果 p 值为 p > 0.05,则接受你的假设。请注意,如果偏差足够小,可能是由于机会而接受水平。例如,0.6 的 p 值意味着有 60%的概率出现任何偏离预期结果的情况。然而,这在可接受的偏差范围内。

  • 如果 p 值为 p < 0.05,则拒绝你的假设,得出结论是除了机会之外还有其他因素在起作用,使得偏差完美。同样,0.01 的 p 值意味着只有 1%的机会是由于机会而产生的偏差,这意味着其他因素必须参与,并且这些因素需要解决。

然而,这两条规则可能并不适用于每个假设检验。在下一小节中,我们将展示使用 Spark MLlib 进行假设检验的示例。

使用 Spark MLlib 的 ChiSqTestResult 进行假设检验

根据 Apache 提供的 API 文档spark.apache.org/docs/latest/mllib-statistics.html#hypothesis-testing,Spark MLlib 的当前实现支持 Pearson 卡方(χ2)拟合度和独立性测试:

  • 拟合度的好坏,或者是否正在进行独立性检验,由输入数据类型决定

  • 拟合度检验需要一个向量类型的输入(主要是密集向量,尽管对于稀疏向量也适用)。另一方面,独立性检验需要一个矩阵作为输入格式。

除此之外,Spark MLlib 还支持输入类型 RDD [LabeledPoint],以通过卡方独立性检验实现特征选择,特别是对于 SVM 或基于回归的测试,其中统计类提供了运行 Pearson 卡方检验所需的方法。

此外,Spark MLlib 提供了Kolmogorov-SmirnovKS)概率分布相等的 1 样本、2 边实现的检验。Spark MLlib 提供了一些在线实现的测试,以支持 A/B 测试等用例。这些测试可以在 Spark Streaming DStream 上执行,其中每个元组的第一个元素表示对照组(false)或处理组(true),第二个元素是观察值的值。

然而,由于简洁和页面限制,这两种测试技术将不会被讨论。以下示例演示了如何通过ChiSqTestResult运行和解释假设检验。在示例中,我们将展示三个测试:对从乳腺癌诊断数据集创建的密集向量的拟合度检验,对随机创建的矩阵的独立性检验,以及对癌症数据集本身的列联表进行独立性检验。

步骤 1:加载所需的包

以下是加载所需包的代码:

import java.io.BufferedReader; 
import java.io.FileReader; 
import java.io.IOException; 
import org.apache.spark.api.java.JavaRDD; 
import org.apache.spark.api.java.function.Function; 
import org.apache.spark.mllib.linalg.DenseVector; 
import org.apache.spark.mllib.linalg.Matrices; 
import org.apache.spark.mllib.linalg.Matrix; 
import org.apache.spark.mllib.linalg.Vector; 
import org.apache.spark.mllib.regression.LabeledPoint; 
import org.apache.spark.mllib.stat.Statistics; 
import org.apache.spark.mllib.stat.test.ChiSqTestResult; 
import org.apache.spark.rdd.RDD; 
import org.apache.spark.sql.SparkSession; 
import com.example.SparkSession.UtilityForSparkSession; 

步骤 2:创建一个 Spark 会话

以下代码帮助我们创建一个 Spark 会话:

static SparkSession spark = UtilityForSparkSession.mySession(); 

UtilityForSparkSession类的实现如下:

public class UtilityForSparkSession { 
  public static SparkSession mySession() { 
  SparkSession spark = SparkSession 
               .builder() 
               .appName("JavaHypothesisTestingOnBreastCancerData ") 
               .master("local[*]") 
              .config("spark.sql.warehouse.dir", "E:/Exp/") 
              .getOrCreate(); 
    return spark; 
  } 
} 

步骤 3:执行拟合度检验

首先,我们需要从类别数据集(如威斯康星州乳腺癌诊断数据集)准备一个密集向量。由于我们已经在这个数据集上提供了许多示例,所以在本节中我们将不再讨论数据探索。以下代码行收集了我们使用myVector()方法创建的向量:

Vector v = myVector(); 

myVector()方法的实现如下:

public static Vector myVector() throws NumberFormatException, IOException {     
BufferedReader br = new BufferedReader(new FileReader(path)); 
    String line = nulNow let's compute the goodness of the fit. Note, if a second vector tol; 
    Vector v = null; 
    while ((line = br.readLine()) != null) { 
      String[] tokens = line.split(","); 
      double[] features = new double[30]; 
      for (int i = 2; i < features.length; i++) { 
        features[i-2] =     
                       Double.parseDouble(tokens[i]); 
      } 
      v = new DenseVector(features); 
    } 
    return v; 
  } 

现在让我们计算拟合度。请注意,如果没有提供第二个要测试的向量作为参数,测试将自动针对均匀分布进行:

ChiSqTestResult goodnessOfFitTestResult = Statistics.chiSqTest(v); 

现在让我们打印拟合度的结果:

System.out.println(goodnessOfFitTestResult + "\n"); 

请注意,测试的摘要包括 p 值、自由度、检验统计量、使用的方法和零假设。我们得到了以下输出:

Chi squared test summary: 
method: pearson 
degrees of freedom = 29  
statistic = 4528.611649568829  
pValue = 0.0  

对于零假设:观察结果遵循与预期相同的分布,存在非常强烈的假设。

由于 p 值低到足够不显著,因此我们不能根据数据接受假设。

步骤 4:对列联表进行独立性检验

首先让我们随机创建一个 4x3 的列联表。在这里,矩阵如下所示:

 ((1.0, 3.0, 5.0, 2.0), (4.0, 6.0, 1.0, 3.5), (6.9, 8.9, 10.5, 12.6)) 
Matrix mat = Matrices.dense(4, 3, new double[] { 1.0, 3.0, 5.0, 2.0, 4.0, 6.0, 1.0, 3.5, 6.9, 8.9, 10.5, 12.6});     

现在让我们对输入的列联表进行 Pearson 独立性检验:

ChiSqTestResult independenceTestResult = Statistics.chiSqTest(mat); 

现在让我们评估测试结果,并给出包括 p 值和自由度在内的测试摘要:

System.out.println(independenceTestResult + "\n"); 

我们得到了以下统计摘要:

Chi squared test summary: 
method: pearson 
degrees of freedom = 6  
statistic = 6.911459343085576  
pValue = 0.3291131185252161  
No presumption against null hypothesis: the occurrence of the outcomes is statistically independent.  

步骤 5:对列联表进行独立性检验

首先,让我们通过 RDDs 从癌症数据集创建一个列联表如下:

static String path = "breastcancer/input/wdbc.data"; 
RDD<String> lines = spark.sparkContext().textFile(path, 2);     
JavaRDD<LabeledPoint> linesRDD = lines.toJavaRDD().map(new Function<String, LabeledPoint>() { 
    public LabeledPoint call(String lines) { 
    String[] tokens = lines.split(","); 
    double[] features = new double[30]; 
    for (int i = 2; i < features.length; i++) { 
    features[i - 2] = Double.parseDouble(tokens[i]); 
            } 
    Vector v = new DenseVector(features); 
    if (tokens[1].equals("B")) { 
    return new LabeledPoint(1.0, v); // benign 
      } else { 
    return new LabeledPoint(0.0, v); // malignant 
        } 
      } 
    }); 

我们已经从原始(特征,标签)对构建了一个列联表,并用它进行了独立性测试。现在让我们对每个特征针对标签进行ChiSquaredTestResult测试:

ChiSqTestResult[] featureTestResults = Statistics.chiSqTest(linesRDD.rdd()); 

现在让我们使用以下代码段观察每列(即每 30 个特征点)的测试结果:

int i = 1; 
for (ChiSqTestResult result : featureTestResults) { 
System.out.println("Column " + i + ":"); 
System.out.println(result + "\n");  
i++; 
} 

Column 1: 
Chi-squared test summary: 
method: Pearson 
degrees of freedom = 455  
statistic = 513.7450859274513  
pValue = 0.02929608473276224  
Strong presumption against null hypothesis: the occurrence of the outcomes is statistically independent. 

Column 2: 
Chi-squared test summary: 
method: Pearson 
degrees of freedom = 478  
statistic = 498.41630331377735  
pValue = 0.2505929829141742  
No presumption against null hypothesis: the occurrence of the outcomes is statistically independent. 

Column 3: 
Chi-squared test summary: 
method: Pearson 
degrees of freedom = 521  
statistic = 553.3147340697276  
pValue = 0.1582572931194156  
No presumption against null hypothesis: the occurrence of the outcomes is statistically independent. 
. 
. 
Column 30: 
Chi-squared test summary: 
method: Pearson 
degrees of freedom = 0  
statistic = 0.0  
pValue = 1.0  
No presumption against null hypothesis: the occurrence of the outcomes is statistically independent.  

从这个结果,我们可以看到对于一些特征点(即列),我们有一个与其他特征点相比较大的 p 值。因此,建议读者在应用超参数调整之前选择适当的数据集并进行假设检验。在这方面没有具体的例子,因为结果可能会根据您拥有的数据集而有所不同。

使用 Spark MLlib 的 Kolmogorov-Smirnov 测试进行假设检验

自 Spark 1.1.0 发布以来,Spark 还提供了使用 Kolmogorov-Smirnov 测试进行实时流数据的假设检验的功能。在这里,获得测试统计结果(至少与实际观察到的结果一样极端)的概率。它实际上假设零假设始终为真。

提示

有关更多详细信息,感兴趣的读者应参考 Spark 分发中的 Java 类(JavaHypothesisTestingKolmogorovSmirnovTestExample.java)在以下目录下:spark-2.0.0-bin-hadoop2.7\examples\src\main\java\org\apache\spark\examples\mllib

Spark MLlib 的流显著性测试

除了 Kolmogorov-Smirnov 测试之外,Spark 还支持流显著性测试,这是假设测试的在线实现,类似于 A/B 测试?这些测试可以在 Spark 流中使用 DStream 进行(关于这个主题的更多技术讨论将在第九章中进行,使用流和图数据进行高级机器学习)。

基于 MLlib 的流显著性测试支持以下两个参数:

  • peacePeriod:这是要忽略的来自流的初始数据点的数量。这实际上用于减轻新颖性效应和您将收到的流的质量。

  • windowSize:这是进行假设检验的过去批次数量。如果将其值设置为 0,它将使用所有先前接收和处理的批次进行累积处理。

感兴趣的读者应参考 Spark API 文档spark.apache.org/docs/latest/mllib-statistics.html#hypothesis-testing

机器学习模型选择

大多数机器学习算法依赖于各种参数。当我们训练模型时,我们需要为这些参数提供值。训练模型的有效性取决于我们选择的模型参数。找到最佳参数集的过程称为模型选择。

通过交叉验证技术进行模型选择

在使用 Python 的 scikit-learn 库或 R 进行机器学习时,通常可以通过使用模型的开箱即用设置获得相当好的预测性能。然而,如果您花一些时间调整模型以适应您的特定问题和数据集,回报可能会很大。

然而,我们还需要考虑其他问题,如过度拟合、交叉验证和偏差-方差权衡。这些想法对于优化算法的超参数至关重要。

在本节中,我们将探讨超参数优化的概念,并演示调整和训练逻辑回归分类器以用于著名的垃圾邮件过滤数据集。目标是调整并应用逻辑回归到这些特征,以预测给定的电子邮件/短信是否为垃圾邮件或非垃圾邮件:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00057.jpeg

图 4:通过交叉验证进行模型选择

交叉验证和 Spark

管道通过一次调整整个管道来实现模型选择,而不是分别调整管道中的每个元素。请参阅spark.apache.org/docs/latest/ml-guide.html中的 API 文档。

当前的 Spark ML 实现支持使用CrossValidator类进行模型选择。它接受一个 Estimator、一组ParamMaps和一个 Evaluator。模型选择任务始于拆分数据集(即将其拆分为一组折叠),这些折叠随后被用作单独的训练和测试数据集。

例如,对于 K=10 个折叠,CrossValidator将生成 10 个(训练,测试)数据集对。其中每个使用数据的三分之二(2/3)进行训练,另外三分之一(1/3)进行测试。之后,CrossValidator遍历ParamMaps集合。对于每个ParamMap,它训练给定的 Estimator 并使用可用的 Evaluator 进行评估。Evaluator 可以是相关的 ML 任务,例如:

  • RegressionEvaluator 用于回归相关问题

  • BinaryClassificationEvaluator 用于二进制数据及其相关问题

  • MultiClassClassificationEvaluator 用于多类问题

在选择最佳的ParamMap时,使用默认指标。请注意,ParamMap也可以被这些评估器中的setMetric()方法覆盖。相反,当涉及到最佳模型选择时:

  • ParamMap产生最佳的评估指标

  • 这些评估指标然后在 K 个折叠上进行平均

  • 最后,选择最佳模型

一旦选择了最佳的ParamMap和模型,CrossValidator将使用它们来拟合整个数据集的 Estimator。

为了更清楚地了解CrossValidator并从参数网格中进行选择,Spark 使用ParamGridBuilder实用程序来构建参数网格。例如,假设参数网格中hashingTF.numFeatures的值为 4,LR.regParam的值为 3。还假设CrossValidator使用 10 个折叠。

一旦这些值相乘的结果为 120(即 4310=120),这意味着有大量不同的模型(即 120 个)正在被训练。因此,使用CrossValidator有时可能非常昂贵。然而,与基于启发式手工调整相比,它也是一种选择相关性能和超参数的统计上更可靠的方法。

提示

有兴趣的读者可以参考以下三本书以获得更多见解:

Evan R. Sparks 等人,《大规模机器学习的模型搜索自动化》,ACM,978-1-4503-3651-2/15/08,dx.doi.org/10.1145/2806777.2806945

Cawley, G. C. & Talbot, N. L 关于模型选择中的过度拟合和随后的选择偏差在性能评估中的影响,《机器学习研究杂志》,JMLR.org,2010 年,11,2079-2107。

N. Japkowicz 和 M. Shah,《评估学习算法:分类视角》,剑桥大学出版社,2011 年。

在下一个小节中,我们将展示如何使用 Spark ML API 对数据集进行交叉验证以进行模型选择。

使用 Spark ML 进行垃圾邮件过滤数据集的交叉验证

在这个小节中,我们将向您展示如何对电子邮件垃圾邮件数据集进行交叉验证以进行模型选择。我们将首先使用逻辑回归,然后我们将继续使用其他模型。最后,我们将推荐最适合电子邮件垃圾邮件分类的模型。

第一步:导入必要的包/库/API

以下是导入必要的包/库/API 的代码:

import java.io.Serializable; 
import java.util.Arrays; 
import java.util.logging.Level; 
import java.util.logging.Logger; 
import org.apache.spark.api.java.JavaPairRDD; 
import org.apache.spark.api.java.JavaRDD; 
import org.apache.spark.api.java.function.Function; 
import org.apache.spark.ml.Pipeline; 
import org.apache.spark.ml.PipelineStage; 
import org.apache.spark.ml.classification.LogisticRegression; 
import org.apache.spark.ml.evaluation.BinaryClassificationEvaluator; 
import org.apache.spark.ml.feature.HashingTF; 
import org.apache.spark.ml.feature.Tokenizer; 
import org.apache.spark.ml.param.ParamMap; 
import org.apache.spark.ml.tuning.CrossValidator; 
import org.apache.spark.ml.tuning.CrossValidatorModel; 
import org.apache.spark.ml.tuning.ParamGridBuilder; 
import org.apache.spark.sql.Dataset; 
import org.apache.spark.sql.Row; 
import org.apache.spark.sql.SparkSession; 
import scala.Tuple2; 

第二步:初始化必要的 Spark 环境

以下代码帮助我们初始化必要的 Spark 环境:

  static SparkSession spark = SparkSession 
        .builder() 
        .appName("CrossValidationforSpamFiltering") 
        .master("local[*]") 
        .config("spark.sql.warehouse.dir", "E:/Exp/") 
        .getOrCreate(); 

在这里,我们将应用程序名称设置为交叉验证,主 URL 设置为local[*],Spark 会话设置为程序的入口点。请相应地设置这些参数。最重要的是,将仓库目录设置为E:/Exp/,并将其替换为适当的路径。

步骤 3:从 SMS 垃圾短信数据集准备数据集

以电子邮件垃圾邮件数据作为输入,从数据中准备一个数据集,将其用作原始文本,并通过调用show()方法检查数据是否被正确读取:

Dataset<Row> df = spark.read().text("input/SMSSpamCollection.txt"); 
df.show(); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00046.jpeg

图 5:前 20 行

要了解更多关于数据的信息,请参考Pipeline - an example with Spark ML部分,在第四章中,通过特征工程提取知识,以及数据集探索的描述。正如您在图 5中所看到的,前 20 行,只有两个标签 - 垃圾邮件或正常邮件(即,这是一个二元分类问题),与文本值(即,每行)相关联。

然而,没有数字标签或 ID。因此,我们需要准备数据集(训练集),使数据框还包含 ID 和标签以及文本(即值),以便我们可以准备测试集,并使用任何分类算法(即逻辑回归)预测相应的标签,并决定我们的模型选择是否合适。

然而,为了做到这一点,我们需要先准备训练数据集。如您所见,上面显示的数据框只有一列,并且如前所述,我们确实需要三列。如果我们从先前的数据集(即df)准备一个 RDD,那么对我们来说将更容易进行转换。

步骤 4:创建用于存储行和索引的 Java RDD 对

通过将 DataFrame(即df)转换为 Java RDD,并通过压缩索引来创建 Java RDD 对:

JavaPairRDD<Row, Long> rowRDD = df.toJavaRDD().zipWithIndex(); 

步骤 5:创建 LabeledDocument RDDs

通过基于两个标签拆分数据集并将文本标签转换为数字标签(即,如果是正常邮件则为1.0,否则为 0.0)来创建LabeledDocument Java RDDs。请注意,LabeledDocument是一个在步骤 6中讨论的用户定义类:

JavaRDD<LabeledDocument> splitedRDD = rowRDD.map(new Function<Tuple2<Row, Long>, LabeledDocument>() { 
@Override 
public LabeledDocument call(Tuple2<Row, Long> v1) throws Exception {   
  Row r = v1._1; 
  long index = v1._2; 
  String[] split = r.getString(0).split("\t"); 
  if(split[0].equals("ham")) 
    return new LabeledDocument(index,split[1], 1.0); 
  else 
    return new LabeledDocument(index,split[1], 0.0); 
      } 
    });  

步骤 6:准备训练数据集

使用createDataFrame()方法从LabeledDocument RDDs 准备训练数据集,并指定类。最后,使用show()方法查看数据框结构,如下所示:

Dataset<Row> training = spark.createDataFrame(splitedRDD, LabeledDocument.class); 
training.show(false); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00147.jpeg

图 6:从数据集中新创建的标签和 ID;其中 ID 是行数。

图 6中,从数据集中新创建的标签和 ID;其中 ID 是行数,我们可以看到新的训练数据集有三列:ID、测试和标签。实际上,可以通过在原始文档的每一行(即每一行)添加一个新的 ID 来完成。让我们为此创建一个名为Document的类,它应该为每行文本设置一个唯一的 ID。类的结构可以是以下内容:

public class Document implements Serializable { 
  private long id; 
  private String text; 
  //Initialise the constructor that should take two parameters: id and text// 
  Set the id 
  Get the id 
  Set the text 
  Get the text   
  } 

现在让我们来看一下类构造函数的结构:

  public LabeledDocument (long id, String text) {   
      this.id = id; 
           this.text = text; 
  } 

ID 的 setter 和 getter 可以是这样的:

  public void setId(long id) { 
    this.id = id; 
  } 
  public long getId() { 
    return this.id; 
  } 

类似地,文本的 setter 和 getter 方法可能是这样的:

  public String getText() { 
    return this.text; 
  } 

  public void setText(String text) { 
    this.text = text; 
  } 

因此,如果我们总结一下,Document类可能是这样的:

import java.io.Serializable; 
public class Document implements Serializable { 
  private long id; 
  private String text; 
  public Document(long id, String text) { 
    this.id = id; 
    this.text = text; 
  } 
  public long getId() { 
    return this.id; 
  } 
  public void setId(long id) { 
    this.id = id; 
  } 
  public String getText() { 
    return this.text; 
  } 
  public void setText(String text) { 
    this.text = text; 
  } 
} 

另一方面,LabeledDocument类的结构可能如下所示,并且可以从Document类扩展(稍后讨论):

现在让我们来看一下类构造函数的结构:

  public LabeledDocument(long id, String text, double label) {   
    this.label = label; 
  } 

然而,我们还没有完成,因为我们将扩展Document类,我们需要使用super()方法从Document类继承构造函数,如下所示:

  public LabeledDocument(long id, String text, double label) { 
    super(id, text); 
    this.label = label; 
  }  

现在 setter 方法可以是这样的:

  public void setLabel(double label) { 
    this.label = label; 
  } 

当然,标签的 getter 方法可能是这样的:

  public double getLabel() { 
    return this.label; 
  } 

因此,简而言之,LabelDocument类如下:

import java.io.Serializable; 
public class LabeledDocument extends Document implements Serializable { 
  private double label; 
  public LabeledDocument(long id, String text, double label) { 
    super(id, text); 
    this.label = label; 
  } 
  public double getLabel() { 
    return this.label; 
  } 
  public void setLabel(double label) { 
    this.label = label; 
  } 
} 

第 7 步:配置 ML 管道

配置一个 ML 管道,包括三个阶段:tokenizerhashingTFlr

Tokenizer tokenizer = new Tokenizer().setInputCol("text").setOutputCol("words"); 
HashingTF hashingTF = new HashingTF().setNumFeatures(1000).setInputCol(tokenizer.getOutputCol()).setOutputCol("features"); 
LogisticRegression lr = new LogisticRegression().setMaxIter(10).setRegParam(0.01); 
Pipeline pipeline = new Pipeline().setStages(new PipelineStage[] { tokenizer, hashingTF, lr }); 

第 8 步:构建要搜索的参数网格

目前,Spark 使用ParamGridBuilder来构建要搜索的参数网格。在这方面,假设我们有hashingTF.numFeatures的三个值和lr.regParam的两个值,那么这个网格将有 3 x 2 = 6 个参数设置供CrossValidator选择:

ParamMap[] paramGrid = new ParamGridBuilder() 
.addGrid(hashingTF.numFeatures(), new int[] { 10, 100, 1000 }).addGrid(lr.regParam(), new double[] { 0.1, 0.01 }) 
 .build(); 

我们现在将管道视为一个估计器,并将其包装在CrossValidator实例中。这将允许我们共同为所有管道阶段选择参数。CrossValidator需要一个估计器,一组估计器ParamMaps和一个评估器。请注意,这里的评估器是BinaryClassificationEvaluator,其默认指标是areaUnderROC

第 9 步:创建一个 CrossValidator 实例

以下是创建CrossValidator实例的代码:

    CrossValidator cv = new CrossValidator() 
        .setEstimator(pipeline) 
        .setEvaluator(new BinaryClassificationEvaluator())                  
        .setEstimatorParamMaps(paramGrid) 
        .setNumFolds(5); // 5-fold cross validation 

第 10 步:运行交叉验证

运行交叉验证并选择最佳参数集。只需使用以下代码段:

CrossValidatorModel cvModel = cv.fit(training); 

现在您的CrossValidator模型已准备好执行预测。但在此之前,我们需要一个测试集或验证集。现在让我们准备一个样本测试集。只需使用以下代码段创建数据集:

    Dataset<Row> test = spark.createDataFrame(Arrays.asList( 
      new Document(4L, "FreeMsg CALL j k"),  
      new Document(5L, "Siva  hostel"), 
      new Document(6L, "darren now"),  
     new Document(7L, "Sunshine Quiz! Win a super Sony")),Document.class); 

现在让我们通过调用图 7中的show()方法来查看测试集的结构:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00072.jpeg

图 7:测试集

第 11 步:创建一个数据集来收集预测参数

以下代码说明了如何创建数据集:

Dataset<Row> predictions = cvModel.transform(test); 

第 12 步:显示测试集中每个文本的预测参数

借助以下代码,我们可以显示预测参数:

for (Row r : predictions.select("id", "text", "probability", "prediction").collect()) 
    { 
System.out.println("(" + r.get(0) + ", " + r.get(1) + ") --> prob=" + r.get(2) + ", prediction=" + r.get(3)); 
    }  

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00118.jpeg

图 8:针对每个文本和 ID 的预测

因此,如果您比较图 6中显示的结果,“从数据集中新创建的标签和 ID;其中 ID 是行数”,您会发现预测准确性从更复杂的方法中增加,用于测量预测准确性的方法可以用于识别可以根据每种错误类型的成本来优化错误率的地方。

通过训练验证拆分进行模型选择

根据 Spark 在spark.apache.org/docs/latest/ml-guide.html提供的 API 文档,Spark 还为超参数调整提供了TrainValidationSplit,以及CrossValidatorTrainValidationSplit的想法是它只评估参数的每个组合,而不是像交叉验证那样迭代 k 次。因此,它在计算上更便宜,产生结果更快。然而,结果可能不像CrossValidator那样可靠。有一个例外:如果训练数据集足够大,那么它也可以产生可靠的结果。

TrainValidationSplit背后的理论是它将以下三个作为输入:

  • 一个估计器

  • estimatorParamMaps参数中提供的一组ParamMap

  • 一个评估器

因此,它通过使用trainRatio参数将模型选择分为两部分开始。另一方面,trainRatio参数用于单独的训练和测试数据集。

例如,对于trainRatio = 0.75(默认值也是 0.75),TrainValidationSplit算法生成一个训练和测试对。在这种情况下,总数据的 75%用于训练模型。因此,其余的 25%用作验证集。

CrossValidator类似,TrainValidationSplit也会遍历一组 ParamMaps,如前所述。对于参数的每种组合,它在每次迭代中训练给定的估计器。

因此,使用给定的评估器评估模型。之后,最佳模型被选为最佳选项,因为ParamMap产生了最佳的评估指标,从而简化了模型选择。TrainValidationSplit最终使用最佳的ParamMap拟合估计器,并用于整个数据集。

基于线性回归的 OCR 数据集模型选择

在本小节中,我们将展示如何为 OCR 数据执行训练验证分割调整。首先将使用逻辑回归,然后我们将继续使用其他模型。最后,我们将为 OCR 数据分类推荐最合适的参数。

步骤 1:导入必要的包/库/API:

import org.apache.spark.ml.evaluation.MulticlassClassificationEvaluator; 
import org.apache.spark.ml.param.ParamMap; 
import org.apache.spark.ml.regression.LinearRegression; 
import org.apache.spark.ml.tuning.ParamGridBuilder; 
import org.apache.spark.ml.tuning.TrainValidationSplit; 
import org.apache.spark.ml.tuning.TrainValidationSplitModel; 
import org.apache.spark.sql.Dataset; 
import org.apache.spark.sql.Row; 
import org.apache.spark.sql.SparkSession;

步骤 2:初始化必要的 Spark 环境

  SparkSession spark = SparkSession 
          .builder() 
          .appName("TrainSplitOCR") 
              .master("local[*]") 
               .config("spark.sql.warehouse.dir",  
                 "E:/Exp/") 
              .getOrCreate(); 

在这里,我们将应用名称设置为TrainValidationSplit,主 URL 设置为local[*],Spark 上下文是程序的入口点。请相应地设置这些参数。

步骤 3:将 OCR 数据准备为 libsvm 格式

如果您回忆一下第六章中的图 19构建可扩展的机器学习管道,您将记得数据如下所示图 9原始 OCR 数据集的数据框快照

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00071.jpeg

图 9:原始 OCR 数据集的数据框快照

然而,TrainValidationSplitModel API 的当前实现仅适用于已经处于libsvm格式的数据集。

提示

感兴趣的读者应参考以下研究文章以获取更深入的知识:Chih-Chung Chang 和 Chih-Jen Lin,LIBSVM - 支持向量机库。ACM 智能系统和技术交易,2:27:1–27:27,2011 年。该软件可在www.csie.ntu.edu.tw/~cjlin/libsvm上获得。

因此,我们确实需要将数据集从当前的制表符分隔的 OCR 数据转换为libsvm格式。

提示

读者应该使用 Packt 软件包提供的数据集,或者可以将 CSV/CSV 文件转换为相应的libsvm格式。感兴趣的读者可以参考我们在 GitHub 上提供的公共脚本github.com/rezacsedu/CSVtoLibSVMConverterinR,该脚本可以直接将 CSV 文件转换为libsvm格式。只需正确显示输入和输出文件路径,并在 RStudio 上运行脚本。

步骤 4:准备 OCR 数据集,并准备训练和测试集

我们假设读者已经下载了数据或使用我们的 GitHub 脚本或使用自己的脚本转换了 OCR 数据。现在,将 OCR libsvm格式数据作为输入,并准备数据集作为原始文本,并通过调用show()方法检查数据是否被正确读取,如下所示:

Dataset<Row> data = spark.read().format("libsvm").load("input/Letterdata_libsvm.data"); 
data.show(false); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00150.jpeg

图 10:前 20 行

// Prepare training and test data. 
Dataset<Row>[] splits = data.randomSplit(new double[] {0.9, 0.1}, 12345); 
Dataset<Row> training = splits[0]; 
Dataset<Row> test = splits[1]; 

要了解更多关于数据的信息,请参考章节Pipeline - An Example with Spark ML,在第四章中,通过特征工程提取知识,以及数据集探索的描述。正如您在图 2中所看到的,使用逻辑回归估计器的 Spark ML 管道模型(虚线仅在管道拟合期间发生),只有两个标签(垃圾邮件或正常邮件)与文本值(即每行)相关联。然而,没有数字标签或 ID。

因此,我们需要准备数据集(训练集),使得数据集还包含 ID 和标签以及文本(即值),以便我们可以准备一个测试集,并对任何分类算法(即逻辑回归)预测其相应的标签,并决定我们的模型选择是否合适。

但是,为了做到这一点,我们首先需要准备训练数据集。正如您所看到的,上面显示的数据框只有一列,正如之前提到的,我们确实需要三列。如果我们从上述数据集(即df)准备一个 RDD,那么我们更容易进行转换。

步骤 5:使用线性回归配置 ML 管道

LinearRegression lr = new LinearRegression(); 

步骤 6:构建要搜索的参数网格

目前,Spark 使用ParamGridBuilder来构建要搜索的参数网格。在这方面,对于hashingTF.numFeatures有三个值,对于lr.regParam有两个值,因此这个网格将有 3 x 2 = 6 个参数设置供CrossValidator选择:

ParamMap[] paramGrid = new ParamGridBuilder() 
.addGrid(hashingTF.numFeatures(), new int[] { 10, 100, 1000 }).addGrid(lr.regParam(), new double[] { 0.1, 0.01 }) 
.build(); 

我们现在将管道视为一个估计器,并将其包装在CrossValidator实例中。这将允许我们共同选择所有管道阶段的参数。正如已经讨论的,CrossValidator需要一个估计器,一组估计器ParamMaps和一个评估器。

注意

请注意,这里的评估器是BinaryClassificationEvaluator,其默认指标是areaUnderROC

步骤 7:创建 TrainValidationSplit 实例:

TrainValidationSplit trainValidationSplit = new TrainValidationSplit() 
    .setEstimator(lr) 
    .setEvaluator(new MulticlassClassificationEvaluator()) 
    .setEstimatorParamMaps(paramGrid) 
    .setTrainRatio(0.7); 

在这种情况下,估计器只是我们在步骤 4中创建的线性回归。TrainValidationSplit需要一个估计器,一组估计器ParamMaps和一个评估器。在这种情况下,70%的数据将用于训练,剩下的 30%用于验证。

步骤 8:运行 TrainValidationSplit,并选择参数

运行TrainValidationSplit并使用训练集选择最佳参数集。只需使用以下代码段:

TrainValidationSplitModel model = trainValidationSplit.fit(training); 

步骤 9:对测试集进行预测

对测试数据进行预测,其中模型是表现最佳的参数组合的模型。最后,要显示预测,请使用以下代码段:

Dataset<Row> per_param = model.transform(test); 
per_param.show(false);   

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00036.jpeg

图 11:对每个特征和标签的预测

图 11中,我们展示了行预测与实际标签的对比。第一列是实际标签,第二列表示特征向量,第三列显示基于TrainValidationSplitModel创建的特征向量的原始预测。

基于逻辑回归的癌症数据集模型选择

在这个子部分中,我们将展示如何对 OCR 数据执行训练验证分割调整。我们将首先使用逻辑回归;然后我们将继续其他模型。最后,我们将为 OCR 数据分类推荐最合适的参数。

步骤 1:导入必要的包/库/API

import org.apache.spark.api.java.JavaRDD; 
import org.apache.spark.api.java.function.Function; 
import org.apache.spark.ml.classification.LogisticRegression; 
import org.apache.spark.ml.evaluation.RegressionEvaluator; 
import org.apache.spark.ml.feature.LabeledPoint; 
import org.apache.spark.ml.linalg.DenseVector; 
import org.apache.spark.ml.linalg.Vector; 
import org.apache.spark.ml.param.ParamMap; 
import org.apache.spark.ml.tuning.ParamGridBuilder; 
import org.apache.spark.ml.tuning.TrainValidationSplit; 
import org.apache.spark.ml.tuning.TrainValidationSplitModel; 
import org.apache.spark.rdd.RDD; 
import org.apache.spark.sql.Dataset; 
import org.apache.spark.sql.Row; 
import org.apache.spark.sql.SparkSession; 

步骤 2:初始化必要的 Spark 环境

static SparkSession spark = SparkSession 
  .builder() 
  .appName("CrossValidationforSpamFiltering") 
  .master("local[*]") 
  .config("spark.sql.warehouse.dir", "C:/Exp/"). 
  getOrCreate(); 

在这里,我们将应用名称设置为CancerDiagnosis,主 URL 设置为local[*],Spark 上下文设置为程序的入口点。请相应地设置这些参数。

步骤 3:创建 Java RDD

解析癌症诊断数据并为字符串准备 Java RDD:

String path = "breastcancer/input/wdbc.data"; 
RDD<String> lines = spark.sparkContext().textFile(path, 3); 

步骤 4:准备癌症诊断 LabeledPoint RDD

正如在第六章中已经讨论的,癌症诊断数据集包含良性和恶性的两个标签BM。但是,我们需要将它们转换为数字标签。只需使用以下代码将它们全部从标签转换为LabeledPoint RDDs 准备:

JavaRDD<LabeledPoint> linesRDD = lines.toJavaRDD().map(new Function<String, LabeledPoint>() { 
      public LabeledPoint call(String lines) { 
      String[] tokens = lines.split(","); 
      double[] features = new double[30]; 
      for (int i = 2; i < features.length; i++) { 
          features[i - 2] =             
                 Double.parseDouble(tokens[i]); 
        } 
           Vector v = new DenseVector(features); 
           if (tokens[1].equals("B")) { 
      return new LabeledPoint(1.0, v); // benign 
    } else { 
    return new LabeledPoint(0.0, v); // malignant 
    } 
      } 
    }); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00082.jpeg

图 12:标签点 RDDs 快照

正如您在图 9中所看到的,前 20 行,标签 B 和 M 已经转换为 1.0 和 0.0。现在我们需要从标签点 RDDs 创建一个数据框。

步骤 5:创建数据集并准备训练和测试集

通过指定标签点类从先前的 RDDs(即linesRDD)创建一个数据集:

Dataset<Row> data = spark.sqlContext().createDataFrame(linesRDD, LabeledPoint.class); 
data.show(); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00136.jpeg

图 13:显示前 20 行的创建的数据集。

Dataset<Row>[] splits=data.randomSplit(new double[] {0.8, 0.2}); 
Dataset<Row> training = splits[0]; 
Dataset<Row> test = splits[1];

请注意,您将不得不根据您的数据和问题类型设置随机拆分的比率。

步骤 6:使用逻辑回归配置 ML 管道:

LogisticRegression lr = new LogisticRegression(); 

步骤 7:构建要搜索的参数网格

目前,Spark 使用ParamGridBuilder来构建要搜索的参数网格。在这方面,假设我们有三个值用于hashingTF.numFeatures和两个值用于lr.regParam,这个网格将有 3 x 2 = 6 个参数设置供CrossValidator选择:

ParamMap[] paramGrid = new ParamGridBuilder() 
.addGrid(lr.regParam(), new double[] {0.1, 0.01}) 
.addGrid(lr.fitIntercept()) 
.addGrid(lr.elasticNetParam(), new double[] {0.0, 0.5, 1.0}) 
.build();

请注意,您将不得不根据您的数据和问题类型设置上述参数的值。

步骤 8:创建一个 TrainValidationSplit 实例:

TrainValidationSplit trainValidationSplit = new TrainValidationSplit() 
.setEstimator(lr) 
.setEvaluator(new RegressionEvaluator()) 
.setEstimatorParamMaps(paramGrid) 
.setTrainRatio(0.8); 

在这种情况下,估计器只是我们在步骤 4中创建的线性回归。准备癌症诊断LabeledPoint RDDs。一个TrainValidationSplit需要一个估计器,一组估计器ParamMaps,以及一个支持二元分类的评估器,因为我们的数据集只有两个类,其中 80%用于训练,剩下的 20%用于验证。

步骤 9:运行 TrainValidationSplit 并选择参数

运行TrainValidationSplit,并使用训练集选择问题的最佳参数集。只需使用以下代码段:

TrainValidationSplitModel model = trainValidationSplit.fit(training); 

步骤 10:对测试集进行预测

对测试数据进行预测,其中模型是表现最佳的参数组合的模型。最后,显示预测结果。只需使用以下代码段:

Dataset<Row> per_param = model.transform(test); 
per_param.show(); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00038.jpeg

图 14:针对每个特征和标签的预测

因此,如果您将这些结果与图 6中显示的结果进行比较,从数据集中新创建的标签和 ID;其中 ID 是行数,您会发现预测准确性增加了,用于识别可以优化错误率的更复杂的预测准确性测量方法,这些方法可以根据每种错误的成本来确定可以使用的地方。

总结

调整算法或机器学习应用可以被认为是一个简单的过程,通过这个过程,人们优化影响模型的参数,以使算法在运行时间和内存使用方面表现最佳。在本章中,我们展示了如何使用 Spark ML 的训练验证拆分和交叉验证技术来进行 ML 模型调优。

我们还想提到,直到 2016 年 10 月 14 日的当前 Spark 发布日期,调整相关的支持和算法仍然不够丰富。鼓励感兴趣的读者访问 Spark 调整页面spark.apache.org/docs/latest/ml-tuning.html以获取更多更新,因为我们相信 Spark 网站将添加更多功能,并且他们肯定会提供足够的文档。

在下一章中,我们将讨论如何使您的机器学习算法或模型适应新的数据集。本章涵盖了高级机器学习技术,以使算法能够适应新数据。它将主要关注批处理/流式架构和使用 Spark 流的在线学习算法。

最终目标是为静态机器学习模型带来活力。读者还将看到机器学习算法如何逐渐学习数据;也就是说,模型在看到新的训练实例时会进行更新。

第八章:调整您的机器学习模型

本章涵盖了高级机器学习ML)技术,以便能够使算法适应新数据。读者还将看到机器学习算法如何逐渐学习数据,也就是说,每次看到新的训练实例时,模型都会更新。还将讨论在动态环境中通过让步不同的约束来学习。总之,本章将涵盖以下主题:

  • 适应机器学习模型

  • ML 模型的泛化

  • 通过增量算法进行适应

  • 通过重用 ML 模型进行适应

  • 动态环境中的机器学习

机器学习模型的适应

正如我们之前讨论的,作为 ML 训练过程的一部分,模型是使用一组数据进行训练的(即训练、测试和验证集)。能够适应其环境并从经验中学习的机器学习模型吸引了来自不同领域的消费者和研究人员,包括计算机科学、工程、数学、物理学、神经科学和认知科学。在本节中,我们将提供如何为新数据和需求采用机器学习模型的技术概述。

技术概述

从技术上讲,如果需要,同样的模型可能需要在以后的阶段进行重新训练以改进。这实际上取决于几个因素,例如新数据何时可用,或者 API 的使用者是否有自己的数据来训练模型,或者数据是否需要被过滤并且模型需要用数据子集进行训练。在这些情景中,ML 算法应该提供足够的 API,以便为其消费者提供方便的方式,使他们能够一次或定期地使用客户端,以便他们可以使用自己的数据重新训练模型。

因此,客户将能够评估重新训练和更新 Web 服务 API 的结果。或者,他们将能够使用新训练的模型。在这方面,域自适应有几种不同的情境。但是,它们在考虑应用类型和需求方面有所不同:

  • 无监督域自适应:学习样本包含一组标记的源示例、一组未标记的源示例和一组未标记的目标示例

  • 半监督域自适应:在这种情况下,我们还考虑了一小部分标记的目标示例

  • 监督域自适应:所有考虑的示例都应该被标记:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00017.jpeg

图 1:重新训练过程概述(虚线表示重新训练步骤)

从技术上讲,制作 ML 模型适应的方法应该有三种选择:

  • 最广泛使用的机器学习技术和算法包括决策树、决策规则、神经网络、统计分类器和概率图模型,它们都需要进行开发,以便能够适应新的需求

  • 其次,先前提到的算法或技术应该被泛化,以便能够以最小的努力使用

  • 此外,还需要开发更加健壮的理论框架和算法,如贝叶斯学习理论、经典统计理论、最小描述长度理论和统计力学方法,以便理解计算学习理论

这三种适应性属性和技术的好处将为实验结果提供见解,也将指导机器学习社区为不同的学习算法做出贡献。

ML 模型的泛化

在第五章中,通过示例进行监督和无监督学习,我们讨论了如何以及为什么将学习算法推广到适应半监督学习、主动学习、结构化预测和强化学习。在本节中,我们将讨论如何将线性回归算法推广到光学字符识别(OCR)数据集上,以展示线性回归模型的推广示例。

广义线性回归

如在第五章中讨论的,通过示例进行监督和无监督学习,线性回归和逻辑回归技术假设输出遵循高斯分布。另一方面,广义线性模型(GLMs)是线性模型的规范,其中响应变量 Yi 遵循来自分布的指数家族的线性分布。

Spark 的GeneralizedLinearRegression API 允许我们灵活地指定 GLMs。Spark 中广义线性回归的当前实现可用于多种类型的预测问题,例如线性回归、泊松回归、逻辑回归等。

然而,当前实现的 Spark GLM 算法仅支持指数家族分布的子集。此外,还存在另一个可伸缩性问题,即其GeneralizedLinearRegression API 仅支持 4096 个特征。因此,如果特征数量超过 4096,算法将抛出异常。

幸运的是,可以使用 LinearRegression 和 LogisticRegression 估计器训练具有增加特征数量的模型,正如在第六章中的几个示例中所示,构建可扩展的机器学习管道

使用 Spark 进行广义线性回归

在本小节中,我们将讨论一个逐步示例,展示如何在我们在第七章中讨论的光学字符识别(OCR)数据的libsvm版本上应用广义线性回归。由于这里将重复使用相同的数据集,我们决定不再详细描述它们。

步骤 1:加载必要的 API 和软件包

以下是加载必要 API 和软件包的代码:

import java.util.Arrays; 
import org.apache.spark.ml.regression.GeneralizedLinearRegression; 
import org.apache.spark.ml.regression.GeneralizedLinearRegressionModel; 
import org.apache.spark.ml.regression.GeneralizedLinearRegressionTrainingSummary; 
import org.apache.spark.sql.Dataset; 
import org.apache.spark.sql.Row; 
import org.apache.spark.sql.SparkSession; 

步骤 2:创建 Spark 会话

以下代码显示了如何创建 Spark 会话:

SparkSession spark = SparkSession 
    .builder() 
    .appName("JavaGeneralizedLinearRegressionExample") 
    .master("local[*]") 
    .config("spark.sql.warehouse.dir", "E:/Exp/") 
    .getOrCreate();  

步骤 3:加载和创建数据集

从 OCR 数据集加载和创建数据集。在这里,我们指定了数据集格式为libsvm

Dataset<Row>dataset = spark.read().format("libsvm").load("input/Letterdata_libsvm.data"); 

步骤 4:准备训练和测试集

以下代码说明了如何准备训练和测试集:

double[] weights = {0.8, 0.2}; 
long seed = 12345L; 
Dataset<Row>[] split = dataset.randomSplit(weights, seed); 
Dataset<Row> training = split[0]; 
Dataset<Row> test = split[1]; 

步骤 5:创建广义线性回归估计器

通过指定家族、链接和最大迭代和回归参数来创建广义线性回归估计器。在这里,我们选择了家族为“高斯”和链接为“身份”:

GeneralizedLinearRegression glr = new GeneralizedLinearRegression() 
.setFamily("gaussian") 
.setLink("identity") 
.setMaxIter(10) 
.setRegParam(0.3); 

请注意,根据 Spark 的 API 文档spark.apache.org/docs/latest/ml-classification-regression.html#generalized-linear-regression,此算法实现与 Spark 支持以下选项:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00153.jpeg

图 2:当前实现的广义线性回归支持的家族

步骤 6:拟合模型

以下是拟合模型的代码:

GeneralizedLinearRegressionModel model = glr.fit(training); 

步骤 7:检查系数和截距

打印我们在第 6 步创建的线性回归模型的系数和截距:

System.out.println("Coefficients: " + model.coefficients()); 
System.out.println("Intercept: " + model.intercept()); 

这两个参数的输出将类似于以下内容:

Coefficients: [-0.0022864381796305487,-0.002728958263362158,0.001582003618682323,-0.0027708788253722914,0.0021962329827476565,-0.014769839282003813,0.027752802299957722,0.005757124632688538,0.013869444611365267,-0.010555326094498824,-0.006062727351948948,-0.01618167221020619,0.02894330366681715,-0.006180003317929849,-0.0025768386348180294,0.015161831324693125,0.8125261496082304] 
Intercept: 1.2140016821111255  

需要注意的是System.out.println方法在集群模式下不起作用。这只在独立模式或伪模式下起作用。这仅用于验证结果。

步骤 8:总结模型

总结训练集上的模型并打印出一些指标:

GeneralizedLinearRegressionTrainingSummary summary = model.summary(); 

步骤 9:验证一些广义指标

让我们打印一些广义指标,如系数标准误差CSE)、T 值、P 值、离散度、零偏差、零残差自由度、AIC 和偏差残差。由于页面限制,我们没有展示这些值的重要性或计算过程:

System.out.println("Coefficient Standard Errors: " 
      + Arrays.toString(summary.coefficientStandardErrors())); 
System.out.println("T Values: " + Arrays.toString(summary.tValues())); 
System.out.println("P Values: " + Arrays.toString(summary.pValues())); 
System.out.println("Dispersion: " + summary.dispersion()); 
System.out.println("Null Deviance: " + summary.nullDeviance()); 
System.out.println("Residual Degree Of Freedom Null: " + summary.residualDegreeOfFreedomNull()); 
System.out.println("Deviance: " + summary.deviance()); 
System.out.println("Residual Degree Of Freedom: " + summary.residualDegreeOfFreedom()); 
    System.out.println("AIC: " + summary.aic()); 

让我们看看我们之前创建的训练集的值:

Coefficient Standard Errors:[2.877963555951775E-4, 0.0016618949921257992, 9.147115254397696E-4, 0.001633197607413805, 0.0013194682048354774, 0.001427648472211677, 0.0010797461071614422, 0.001092731825368789, 7.922778963434026E-4, 9.413717346009722E-4, 8.746375698587989E-4, 9.768068714323967E-4, 0.0010276211138097238, 0.0011457739746946476, 0.0015025626835648176, 9.048329671989396E-4, 0.0013145697411570455, 0.02274018067510297] 
T Values:[-7.944639100457261, -1.6420762300218703, 1.729510971146599, -1.6965974067032972, 1.6644834446931607, -10.345571455081481, 25.703081600282317, 5.2685613240426585, 17.50578259898057, -11.212707697212734, -6.931702411237277, -16.56588695621814, 28.165345454527458, -5.3937368577226055, -1.714962485760994, 16.756497468951743, 618.0928437414578, 53.385753589911985] 
P Values:[1.9984014443252818E-15, 0.10059394323065063, 0.08373705354670546, 0.0897923347927514, 0.09603552109755675, 0.0, 0.0, 1.3928712139232857E-7, 0.0, 0.0, 4.317657342767234E-12, 0.0, 0.0, 6.999167956323049E-8, 0.08637155105770145, 0.0, 0.0, 0.0] 
Dispersion: 0.07102433332236015  
Null Deviance: 41357.85510971454 
Residual Degree Of Freedom Null: 15949 
Deviance: 1131.5596784918419 
Residual Degree Of Freedom: 15932 
AIC: 3100.6418768238423  

步骤 10:显示偏差残差

以下代码用于显示偏差残差:

summary.residuals().show(); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00002.jpeg

图 3:OCR 数据集的偏差残差总结

提示

有兴趣的读者应参考以下网页,以获取有关该算法及其实现细节的更多信息和见解:spark.apache.org/docs/latest/ml-classification-regression.html

通过增量算法进行适应

根据 Robi Polikar 等人的说法(Learn++: An Incremental Learning Algorithm for Supervised Neural Networks, IEEE Transactions on Systems, Man, And Cybernetics, V-21, No-4, November 2001),已经提出了各种算法用于增量学习。因此,增量学习被暗示用于解决不同的问题。在一些文献中,增量学习一词被用来指代分类器的生长或修剪。或者,它可能指的是以增量方式选择最具信息量的训练样本来解决问题。

在其他情况下,使常规的 ML 算法增量意味着通过对分类器中的权重进行一定形式的受控修改,通过对错误分类的信号进行重新训练。一些算法能够学习新信息;然而,它们并不同步满足先前提到的所有标准。此外,它们要么需要访问旧数据,要么需要在途中忘记先前的知识,由于它们无法适应新类别,因此对新数据集不具有适应性。

考虑到先前提到的问题,在本节中,我们将讨论如何使用原始算法的增量版本来采用 ML 模型。我们将简要讨论增量 SVM、贝叶斯网络和神经网络。此外,如果适用,我们将提供这些算法的常规 Spark 实现。

增量支持向量机

使常规 ML 算法增量是相当困难的。简而言之,这是可能的,但并不十分容易。如果您想要这样做,您必须更改您正在使用的 Spark 库的底层源代码,或者自己实现训练算法。

不幸的是,Spark 没有实现增量版本的 SVM。然而,在使线性 SVM 增量之前,您需要先了解线性 SVM 本身。因此,我们将在下一个子节中使用 Spark 为新数据集提供一些线性 SVM 的概念。

提示

据我们所知,我们发现了只有两种可能的解决方案,称为 SVMHeavy (people.eng.unimelb.edu.au/shiltona/svm/) 和 LaSVM (leon.bottou.org/projects/lasvm),它们支持增量训练。但我们没有使用任何一种。有兴趣的读者应该阅读这两篇关于增量 SVM 的论文以获取一些见解。这两篇论文都很简单,展示了很好的研究,如果您刚开始学习的话:

cbcl.mit.edu/cbcl/publications/ps/cauwenberghs-nips00.pdf

www.jmlr.org/papers/volume7/laskov06a/laskov06a.pdf

使用 Spark 适应新数据的 SVM

在本节中,我们将首先讨论如何使用 Spark 实现的线性 SVM 进行二元分类。然后我们将展示如何将相同的算法应用于新数据类型。

步骤 1:数据收集和探索

我们从www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/binary.html收集了一个结肠癌数据集。最初,数据集的标签为-1.0 和 1.0 如下:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00096.jpeg

图 4:原始结肠癌数据快照

提示

该数据集在以下出版物中使用:U. Alon, N. Barkai, D. A. Notterman, K. Gish, S.Ybarra, D.Mack, and A. J. Levine. Broad patterns of gene expression revealed by clustering analysis of tumour and normal colon tissues probed by oligonucleotide arrays. Cell Biology, 96:6745-6750, 1999。感兴趣的读者应参考该出版物以获取有关数据集的更多见解。

之后,进行实例归一化以使均值为零,方差为一。然后进行特征归一化以获得零均值和方差为一作为预处理步骤。然而,为简单起见,我们将-1.0 视为 0.1,因为 SVM 不识别符号(即+或-)。因此,数据集现在包含两个标签 1 和 0(即,这是一个二元分类问题)。经过预处理和缩放后,有两个类别和 2000 个特征。以下是数据集的示例图 5

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00051.jpeg

图 5:预处理的结肠癌数据

步骤 2:加载必要的软件包和 API

以下是加载必要软件包的代码:

import org.apache.spark.api.java.JavaRDD; 
import org.apache.spark.api.java.function.Function; 
import org.apache.spark.mllib.classification.SVMModel; 
import org.apache.spark.mllib.classification.SVMWithSGD; 
import org.apache.spark.mllib.evaluation.BinaryClassificationMetrics; 
import org.apache.spark.mllib.evaluation.MulticlassMetrics; 
import org.apache.spark.mllib.optimization.L1Updater; 
import org.apache.spark.mllib.regression.LabeledPoint; 
import org.apache.spark.mllib.util.MLUtils; 
import org.apache.spark.sql.SparkSession; 

步骤 3:配置 Spark 会话

以下代码帮助我们创建 Spark 会话:

SparkSession spark = SparkSession 
    .builder() 
    .appName("JavaLDAExample") 
    .master("local[*]") 
    .config("spark.sql.warehouse.dir", "E:/Exp/") 
    .getOrCreate(); 

步骤 4:从数据中创建数据集

以下是创建数据集的代码:

String path = "input/colon-cancer.data"; 
JavaRDD<LabeledPoint>data = MLUtils.loadLibSVMFile(spark.sparkContext(), path).toJavaRDD(); 

步骤 5:准备训练和测试集

以下是准备训练和测试集的代码:

    JavaRDD<LabeledPoint>training = data.sample(false, 0.8, 11L); 
training.cache(); 
    JavaRDD<LabeledPoint>test = data.subtract(training); 

步骤 6:构建和训练 SVM 模型

以下代码说明了如何构建和训练 SVM 模型:

intnumIterations = 500; 
final SVMModel model = SVMWithSGD.train(training.rdd(), numIterations); 

步骤 7:在测试集上计算原始预测分数

以下是计算原始预测的代码:

JavaRDD<Tuple2<Object, Object>>scoreAndLabels = test.map( 
newFunction<LabeledPoint, Tuple2<Object, Object>>() { 
public Tuple2<Object, Object> call(LabeledPoint p) { 
          Double score = model.predict(p.features()); 
returnnew Tuple2<Object, Object>(score, p.label()); 
        }}); 

步骤 8:评估模型

以下是评估模型的代码:

BinaryClassificationMetrics metrics = new BinaryClassificationMetrics(JavaRDD.toRDD(scoreAndLabels)); 
System.out.println("Area Under PR = " + metrics.areaUnderPR()); 
System.out.println("Area Under ROC = " + metrics.areaUnderROC()); 
Area Under PR = 0.6266666666666666 
Area Under ROC = 0.875  

然而,ROC 的值在 0.5 和 1.0 之间。当值大于 0.8 时,这表明是一个好的分类器,如果 ROC 的值小于 0.8,则表示是一个糟糕的分类器。SVMWithSGD.train()方法默认执行二级(L2)正则化,正则化参数设置为 1.0。

如果要配置此算法,应通过直接创建新对象来进一步定制SVMWithSGD。之后,可以使用 setter 方法来设置对象的值。

有趣的是,所有其他 Spark MLlib 算法都可以以这种方式定制。然而,在定制完成后,您需要构建源代码以进行 API 级别的更改。有兴趣的读者可以加入 Apache Spark 邮件列表,如果他们想为开源项目做出贡献。

请注意,Spark 的源代码可以在 GitHub 上找到,网址为github.com/apache/spark,作为开源项目,它发送拉取请求来丰富 Spark。更多技术讨论可以在 Spark 网站上找到,网址为spark.apache.org/

例如,以下代码生成了一个正则化变体(L1)的 SVM,正则化参数设置为 0.1,并且运行训练算法 500 次,如下所示:

SVMWithSGD svmAlg = new SVMWithSGD(); 
svmAlg.optimizer() 
      .setNumIterations(500) 
      .setRegParam(0.1) 
      .setUpdater(new L1Updater()); 
final SVMModel model = svmAlg.run(training.rdd()); 

您的模型现在已经训练好了。现在,如果您执行步骤 7步骤 8,将生成以下指标:

Area Under PR = 0.9380952380952381 
Area Under ROC = 0.95 

如果您将这个结果与步骤 8中产生的结果进行比较,现在它会好得多,不是吗?然而,根据数据准备的不同,您可能会得到不同的结果。

它指示了更好的分类(请参见www.researchgate.net/post/What_is_the_value_of_the_area_under_the_roc_curve_AUC_to_conclude_that_a_classifier_is_excellent)。通过这种方式,支持向量机可以针对新的数据类型进行优化或自适应。

然而,参数(即迭代次数、回归参数和更新器)应该相应地设置。

增量神经网络

R 或 Matlab 中的神经网络的增量版本使用 adapt 函数提供了适应性。这种更新是否是迭代地而不是覆盖地进行?为了验证这个说法,读者可以尝试使用 R 或 Matlab 版本的增量神经网络分类器,可能需要选择第一个数据块的子集作为训练中的第二个块。如果是覆盖的,当您使用经过训练的网络与子集一起测试第一个数据块时,它可能会对不属于子集的数据进行糟糕的预测。

使用 Spark 进行多层感知器分类

迄今为止,Spark 尚未实现神经网络的增量版本。根据提供在spark.apache.org/docs/latest/ml-classification-regression.html#multilayer-perceptron-classifier的 API 文档,Spark 的多层感知器分类器MLPC)是基于前馈人工神经网络FANN)的分类器。MLPC 包括多层节点,包括隐藏层。每一层都与下一层等等完全连接在一起。输入层中的节点表示输入数据。所有其他节点通过输入的线性组合与节点的权重w和偏差b以及应用激活函数将输入映射到输出。输出层中的节点数N对应于类的数量。

MLPC 还执行反向传播来学习模型。Spark 使用逻辑损失函数进行优化,有限内存的 Broyden-Fletcher-Goldfarb-ShannoL-BFGS)作为优化例程。请注意,L-BFGS 是拟牛顿法QNM)家族中的一种优化算法,它使用有限的主内存来近似 Broyden-Fletcher-Goldfarb-Shanno 算法。为了训练多层感知器分类器,需要设置以下参数:

  • 迭代的容限

  • 学习的块大小

  • 种子大小

  • 最大迭代次数

请注意,层包括输入层、隐藏层和输出层。此外,收敛容限的较小值将导致更高的准确性,但需要更多的迭代。默认的块大小参数为 128,最大迭代次数默认设置为 100。我们建议您相应地和谨慎地设置这些值。

在这个小节中,我们将展示 Spark 如何通过 Iris 数据集实现了神经网络学习算法的多层感知器分类器。

步骤 1:数据集收集、处理和探索

原始的鸢尾植物数据集是从 UCI 机器学习仓库(www.ics.uci.edu/~mlearn/MLRepository.html)收集的,然后由 Chang 等人进行了预处理,缩放到 libsvm 格式,并放置在 libsvm 支持向量机的综合库中,网址为(www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/multiclass.html)用于二进制、多类别和多标签分类任务。鸢尾花数据集包含三个类别和四个特征,其中萼片和花瓣的长度根据 libsvm 格式进行了缩放。更具体地说,这是属性信息:

  • 类别:鸢尾花 Setosa、鸢尾花 Versicolour、鸢尾花 Virginica(第 1 列)

  • 厘米的萼片长度(第 2 列)

  • 厘米的萼片宽度(第 3 列)

  • 厘米的花瓣长度(第 4 列)

  • 厘米的花瓣宽度(第 5 列)

数据集的快照显示在图 6中:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00044.jpeg

图 6:鸢尾花数据集快照

步骤 2:加载所需的包和 API

以下是加载所需包和 API 的代码:

import org.apache.spark.ml.classification.MultilayerPerceptronClassificationModel; 
import org.apache.spark.ml.classification.MultilayerPerceptronClassifier; 
import org.apache.spark.ml.evaluation.MulticlassClassificationEvaluator; 
import org.apache.spark.sql.Dataset; 
import org.apache.spark.sql.Row; 
import org.apache.spark.sql.SparkSession; 
import com.example.SparkSession.UtilityForSparkSession; 

步骤 3:创建一个 Spark 会话

以下代码帮助我们创建 Spark 会话:

SparkSession spark = UtilityForSparkSession.mySession(); 

注意,创建并返回 Spark 会话对象的mySession()方法如下:

public static SparkSession mySession() { 
SparkSession spark = SparkSession.builder() 
.appName("MultilayerPerceptronClassificationModel") 
.master("local[*]") 
.config("spark.sql.warehouse.dir", "E:/Exp/") 
.getOrCreate(); 
    return spark; 
  } 

步骤 4:解析和准备数据集

将输入数据加载为libsvm格式:

String path = "input/iris.data"; 
Dataset<Row> dataFrame = spark.read().format("libsvm").load(path); 

步骤 5:准备训练和测试集

准备训练和测试集:训练= 70%,测试= 30%,种子= 12345L:

Dataset<Row>[] splits = dataFrame.randomSplit(new double[] { 0.7, 0.3 }, 12345L); 
Dataset<Row> train = splits[0]; 
Dataset<Row> test = splits[1]; 

步骤 6:为神经网络指定层

为神经网络指定层。这里,输入层大小为 4(特征),两个中间层(即隐藏层)的大小分别为 4 和 3,输出大小为 3(类别):

int[] layers = newint[] { 4, 4, 3, 3 }; 

步骤 7:创建多层感知器估计器

创建MultilayerPerceptronClassifier训练器并设置其参数。在这里,使用步骤 6中的setLayers()方法设置param [[layers]]的值。使用setTol()方法设置迭代的收敛容限,因为较小的值会导致更高的准确性,但需要更多的迭代。

注意默认值为1E-4。使用setBlockSize()方法设置 Param [[blockSize]]的值,默认为 128KB。如果未设置权重,可以使用setInitialWeights()设置权重初始化的种子。最后,使用setMaxIter()方法设置最大迭代次数,默认为 100:

MultilayerPerceptronClassifier trainer = new MultilayerPerceptronClassifier() 
        .setLayers(layers)        
        .setTol(1E-4)         
        .setBlockSize(128)         
        .setSeed(12345L)  
        .setMaxIter(100); 

步骤 8:训练模型

使用步骤 7中的先前估计器训练MultilayerPerceptronClassificationModel

MultilayerPerceptronClassificationModel model = trainer.fit(train); 

步骤 9:在测试集上计算准确率

以下是在测试集上计算准确率的代码:

Dataset<Row> result = model.transform(test); 
Dataset<Row> predictionAndLabels = result.select("prediction", "label"); 

步骤 10:评估模型

评估模型,计算指标,并打印准确率、加权精度和加权召回率:

MulticlassClassificationEvaluator evaluator = new MulticlassClassificationEvaluator().setMetricName("accuracy"); 
MulticlassClassificationEvaluator evaluator2 = new MulticlassClassificationEvaluator().setMetricName("weightedPrecision"); 
MulticlassClassificationEvaluator evaluator3 = new MulticlassClassificationEvaluator().setMetricName("weightedRecall"); 
System.out.println("Accuracy = " + evaluator.evaluate(predictionAndLabels)); 
System.out.println("Precision = " + evaluator2.evaluate(predictionAndLabels)); 
System.out.println("Recall = " + evaluator3.evaluate(predictionAndLabels)); 

输出应如下所示:

Accuracy = 0.9545454545454546  
Precision = 0.9595959595959596 
Recall = 0.9545454545454546  

步骤 11:停止 Spark 会话

以下代码用于停止 Spark 会话:

spark.stop(); 

从先前的预测指标可以看出,分类任务相当令人印象深刻。现在轮到你使你的模型适应了。现在尝试使用新数据集进行训练和测试,并使你的 ML 模型适应。

增量贝叶斯网络

正如我们之前讨论的,朴素贝叶斯是一种简单的多类别分类算法,假设每对特征之间都是独立的。基于朴素贝叶斯的模型可以被训练得非常高效。该模型可以计算每个特征在给定标签的条件概率分布,因为通过对训练数据的传递。之后,它应用贝叶斯定理来计算用于进行预测的标签的条件概率分布。

然而,目前还没有将增量版本的贝叶斯网络实现到 Spark 中。根据提供的 API 文档spark.apache.org/docs/latest/mllib-naive-bayes.html,每个观察结果是一个文档,每个特征代表一个术语。观察结果的值是术语的频率或零或一。这个值表示了术语是否在多项式朴素贝叶斯和伯努利朴素贝叶斯的文档分类中是否被发现。

请注意,与基于线性 SVM 的学习一样,这里的特征值也必须是非负的。模型的类型是通过可选参数选择的,多项式或伯努利。默认模型类型是多项式。此外,可以通过设置参数λ来使用加法平滑(即 lambda)。请注意,默认的 lambda 值为 1.0。

有关基于大数据方法的贝叶斯网络学习的更多技术细节,请参阅论文:Jianwu W.等人的大数据贝叶斯网络学习的可扩展数据科学工作流方法 (users.sdsc.edu/~jianwu/JianwuWang_files/A_Scalable_Data_Science_Workflow_Approach_for_Big_Data_Bayesian_Network_Learning.pdf)。

对于增量贝叶斯网络的更多见解,感兴趣的读者还应参考以下出版物:

使用 Spark 进行朴素贝叶斯分类

Spark MLlib 中的当前实现支持多项式朴素贝叶斯和伯努利朴素贝叶斯。然而,增量版本尚未实现。因此,在本节中,我们将向您展示如何使用 Spark MLlib 版本的朴素贝叶斯对车辆规模数据集进行分类,以便为您提供基于朴素贝叶斯的学习的一些概念。

请注意,由于使用 Spark ML 的低准确性和精度,我们没有提供 Pipeline 版本,而是仅使用 Spark MLlib 实现了相同的功能。此外,如果您有合适且更好的数据,可以轻松尝试实现 Spark ML 版本。

步骤 1:数据收集、预处理和探索

数据集是从www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/multiclass.html#aloi下载的,并由 David D. Lewis,Yiming Yang,Tony G. Rose 和 Fan Li 提供。RCV1:文本分类研究的新基准集。机器学习研究杂志,5:361-397,2004 年。

预处理: 对于预处理,考虑了两个步骤如下:

  • 标签层次结构通过将数据集映射到 RCV1 的第二级(即修订)主题层次结构进行重新组织。具有第三或第四级的文档仅映射到其第二级的父类别。因此,不考虑具有第一级的文档来创建映射。

  • 由于 Spark 中多级分类器的当前实现不够健壮,已删除了多标签实例。

完成这两个步骤后,最终收集到 53 个类别和 47,236 个特征。以下是数据集的快照,显示在图 7中:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00035.jpeg

图 7:RCV1 主题层次数据集

步骤 2:加载所需的库和包

以下是加载库和包的代码:

import org.apache.spark.api.java.JavaPairRDD; 
import org.apache.spark.api.java.JavaRDD; 
import org.apache.spark.api.java.function.Function; 
import org.apache.spark.api.java.function.PairFunction; 
import org.apache.spark.mllib.classification.NaiveBayes; 
import org.apache.spark.mllib.classification.NaiveBayesModel; 
import org.apache.spark.mllib.regression.LabeledPoint; 
import org.apache.spark.mllib.util.MLUtils; 
import org.apache.spark.sql.SparkSession; 
importscala.Tuple2; 

步骤 3:初始化 Spark 会话

以下代码帮助我们创建 Spark 会话:

static SparkSession spark = SparkSession 
      .builder() 
      .appName("JavaLDAExample").master("local[*]") 
      .config("spark.sql.warehouse.dir", "E:/Exp/") 
      .getOrCreate();  

第 4 步:准备 LabeledPoint RDDs

以 libsvm 格式解析数据集并准备LabeledPoint RDDs:

static String path = "input/rcv1_train.multiclass.data"; 
JavaRDD<LabeledPoint> inputData = MLUtils.loadLibSVMFile(spark.sparkContext(), path).toJavaRDD();  

对于文档分类,输入特征向量通常是稀疏的,应该提供稀疏向量作为输入以利用稀疏性。由于训练数据只使用一次,因此不需要将其缓存。

第 5 步:准备训练和测试集

以下是准备训练和测试集的代码:

JavaRDD<LabeledPoint>[] split = inputData.randomSplit(new double[]{0.8, 0.2}, 12345L); 
JavaRDD<LabeledPoint> training = split[0];  
JavaRDD<LabeledPoint> test = split[1]; 

第 6 步:训练朴素贝叶斯模型

通过指定模型类型为多项式和 lambda = 1.0 来训练朴素贝叶斯模型,这是默认值,适用于任何特征的多类分类。但是,请注意,伯努利朴素贝叶斯要求特征值为 0 或 1:

final NaiveBayesModel model = NaiveBayes.train(training.rdd(), 1.0, "multinomial"); 

第 7 步:计算测试数据集上的预测

以下是计算预测的代码:

JavaPairRDD<Double,Double> predictionAndLabel = 
test.mapToPair(new PairFunction<LabeledPoint, Double, Double>() { 
@Override 
public Tuple2<Double, Double> call(LabeledPoint p) { 
return new Tuple2<>(model.predict(p.features()), p.label()); 
          } 
        }); 

第 8 步:计算预测准确度

以下是计算预测准确度的代码:

double accuracy = predictionAndLabel.filter(new Function<Tuple2<Double, Double>, Boolean>() { 
@Override 
public Boolean call(Tuple2<Double, Double>pl) { 
returnpl._1().equals(pl._2()); 
        } 
      }).count() / (double) test.count(); 

第 9 步:打印准确度

以下是打印准确度的代码:

System.out.println("Accuracy of the classification: "+accuracy); 

这提供了以下输出:

Accuracy of the classification: 0.5941753719531497  

这很低,对吧?这正如我们在第七章中调整 ML 模型时所讨论的。通过选择适当的算法(即分类器或回归器)进行交叉验证和训练分割,可以进一步提高预测准确度。

通过重用 ML 模型进行适应

在本节中,我们将描述如何使机器学习模型适应新数据集。将展示一个用于预测心脏病的示例。首先我们将描述问题陈述,然后我们将探索心脏疾病数据集。在数据集探索之后,我们将训练并保存模型到本地存储。之后将评估模型的表现。最后,我们将重用/重新加载相同的模型,以适用于新的数据类型。

更具体地说,我们将展示如何使用 Spark 机器学习 API,包括 Spark MLlib、Spark ML 和 Spark SQL 来预测未来心脏病的可能性。

问题陈述和目标

机器学习和大数据的结合是一个激进的组合,在研究、学术界以及生物医学领域都产生了巨大的影响。在生物医学数据分析领域,这对诊断和预后的真实数据集产生了更好的影响,以实现更好的医疗保健。此外,生命科学研究也正在进入大数据领域,因为数据集以前所未有的方式被生成和产生。这给机器学习和生物信息学工具和算法带来了巨大的挑战,以从大数据标准(如容量、速度、多样性、真实性、可见性和价值)中找到价值。

数据探索

近年来,生物医学研究取得了巨大进展,越来越多的生命科学数据集正在生成,其中许多是开放源代码的。然而,为了简单和便利起见,我们决定使用克利夫兰数据库。迄今为止,大多数将机器学习技术应用于生物医学数据分析的研究人员都使用了这个数据集。根据数据集描述,这个心脏病数据集是生物医学数据分析和机器学习领域的研究人员最常使用和研究的数据集之一。

该数据集可以在 UCI 机器学习数据集存储库archive.ics.uci.edu/ml/machine-learning-databases/heart-disease/免费获取。该数据包含共 76 个属性,但大多数已发表的研究论文只使用了该领域的 14 个特征的子集。"goal"字段用于指代心脏疾病是否存在。它有 5 个可能的值,范围从 0 到 4。值 0 表示没有心脏疾病。而值 1 和 2 表示疾病存在,但处于初期阶段。另一方面,值 3 和 4 表示心脏疾病的强烈可能性。克利夫兰数据集的生物医学实验仅仅试图区分存在(值 1、2、3、4)和不存在(值 0)。简而言之,数值越高,疾病可能性越大,存在的证据也越多。另一件事是,隐私在生物医学数据分析领域以及所有类型的诊断和预后中都是一个重要关注点。因此,最近已从数据集中删除了患者的姓名和社会安全号码,以避免隐私问题。因此,这些值已被替换为虚拟值。

需要注意的是,已经处理了三个文件,其中包含了克利夫兰、匈牙利和瑞士的数据集。所有四个未处理的文件也存在于此目录中。为了演示示例,我们将使用克利夫兰数据集来训练和评估模型。然而,匈牙利数据集将用于重新使用保存的模型。正如我们已经说过的,尽管属性数量为 76(包括预测属性),但像其他 ML/生物医学研究人员一样,我们也将只使用 14 个属性,具体属性信息如下:

编号属性名称解释
1age年龄(以年为单位)
2sex男性或女性:性别(1 = 男性;0 = 女性)
3cp胸痛类型:— 值 1:典型心绞痛— 值 2:非典型心绞痛— 值 3:非心绞痛— 值 4:无症状
4trestbps静息血压(入院时以 mm Hg 为单位)
5chol血清胆固醇(以 mg/dl 为单位)
6fbs空腹血糖。如果> 120 mg/dl)(1 = 真; 0 = 假)
7restecg静息心电图结果:— 值 0:正常— 值 1:ST-T 波异常— 值 2:根据 Estes 标准显示可能或明确的左心室肥大。
8thalach达到的最大心率
9exang运动诱发的心绞痛(1 = 是; 0 = 否)
10oldpeak相对于休息引起的 ST 段压低
11slope峰值运动 ST 段的斜率— 值 1:上斜— 值 2:平坦— 值 3:下斜
12ca荧光镜检查染色的主要血管数(0-3)
13thal心率:—值 3 = 正常;—值 6 = 固定缺陷—值 7 = 可逆缺陷
14num心脏疾病诊断(血管造影疾病状态)— 值 0:<50%直径狭窄— 值 1:>50%直径狭窄

表 1:数据集特征

数据集的样本快照如下所示:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00091.jpeg

图 8:心脏疾病数据集的样本快照

开发心脏疾病预测模型

步骤 1:加载所需的包和 API

为了我们的目的,需要导入以下包和 API。我们相信,如果您对 Spark 2.0.0 有最低的工作经验,这些包是不言自明的:

import java.util.HashMap; 
import java.util.List; 
import org.apache.spark.api.java.JavaPairRDD; 
import org.apache.spark.api.java.JavaRDD; 
import org.apache.spark.api.java.function.Function; 
import org.apache.spark.api.java.function.PairFunction; 
import org.apache.spark.ml.classification.LogisticRegression; 
import org.apache.spark.mllib.classification.LogisticRegressionModel; 
import org.apache.spark.mllib.classification.NaiveBayes; 
import org.apache.spark.mllib.classification.NaiveBayesModel; 
import org.apache.spark.mllib.linalg.DenseVector; 
import org.apache.spark.mllib.linalg.Vector; 
import org.apache.spark.mllib.regression.LabeledPoint; 
import org.apache.spark.mllib.regression.LinearRegressionModel; 
import org.apache.spark.mllib.regression.LinearRegressionWithSGD; 
import org.apache.spark.mllib.tree.DecisionTree; 
import org.apache.spark.mllib.tree.RandomForest; 
import org.apache.spark.mllib.tree.model.DecisionTreeModel; 
import org.apache.spark.mllib.tree.model.RandomForestModel; 
import org.apache.spark.rdd.RDD; 
import org.apache.spark.sql.Dataset; 
import org.apache.spark.sql.Row; 
import org.apache.spark.sql.SparkSession; 
import com.example.SparkSession.UtilityForSparkSession; 
import javassist.bytecode.Descriptor.Iterator; 
import scala.Tuple2; 

步骤 2:创建一个活动的 Spark 会话

以下代码帮助我们创建 Spark 会话:

SparkSession spark = UtilityForSparkSession.mySession(); 

这是UtilityForSparkSession类,它创建并返回一个活动的 Spark 会话:

import org.apache.spark.sql.SparkSession; 
public class UtilityForSparkSession { 
  public static SparkSession mySession() { 
    SparkSession spark = SparkSession 
                          .builder() 
                          .appName("UtilityForSparkSession") 
                          .master("local[*]") 
                          .config("spark.sql.warehouse.dir", "E:/Exp/") 
                          .getOrCreate(); 
    return spark; 
  } 
} 

请注意,在 Windows 7 平台上,我们已将 Spark SQL 仓库设置为E:/Exp/,但根据您的操作系统设置您的路径。

步骤 3:数据解析和标签点的 RDD 创建

将输入作为简单文本文件,将它们解析为文本文件,并创建一个用于分类和回归分析的标签点的 RDD。还要指定输入源和分区数。根据数据集大小调整分区数。这里分区数已设置为 2:

String input = "heart_diseases/processed_cleveland.data"; 
Dataset<Row> my_data = spark.read().format("com.databricks.spark.csv").load(input); 
my_data.show(false); 
RDD<String> linesRDD = spark.sparkContext().textFile(input, 2); 

由于JavaRDD无法直接从文本文件创建,我们已经创建了一个简单的 RDD,以便在必要时将它们转换为JavaRDD。现在让我们创建一个带有标签点的JavaRDD。但是,我们首先需要将 RDD 转换为JavaRDD以满足我们的目的,如下所示:

JavaRDD<LabeledPoint> data = linesRDD.toJavaRDD().map(new Function<String, LabeledPoint>() { 
      @Override 
  public LabeledPoint call(String row) throws Exception { 
      String line = row.replaceAll("\\?", "999999.0"); 
      String[] tokens = line.split(","); 
      Integer last = Integer.parseInt(tokens[13]); 
      double[] features = new double[13]; 
      for (int i = 0; i < 13; i++) { 
      features[i] = Double.parseDouble(tokens[i]); 
      } 
      Vector v = new DenseVector(features); 
      Double value = 0.0; 
      if (last.intValue() > 0) 
        value = 1.0; 
      LabeledPoint lp = new LabeledPoint(value, v); 
    return lp; 
      } 
    }); 

使用replaceAll()方法,我们处理了原始文件中指定的缺失值等无效值,使用了*?*字符。为了摆脱缺失或无效值,我们用一个非常大的值替换它们,这对原始分类或预测结果没有副作用。原因是缺失或稀疏数据可能导致高度误导性的结果。

步骤 4:将标签点的 RDD 分割为训练集和测试集

在上一步中,我们创建了可以用于回归或分类任务的 RDD 标签点数据。现在我们需要将数据分割为训练集和测试集,如下所示:

double[] weights = {0.7, 0.3}; 
long split_seed = 12345L; 
JavaRDD<LabeledPoint>[] split = data.randomSplit(weights, split_seed); 
JavaRDD<LabeledPoint> training = split[0]; 
JavaRDD<LabeledPoint> test = split[1]; 

如果您查看前面的代码段,您会发现我们已将 RDD 标签点分为 70%的训练集和 30%的测试集。randomSplit()方法执行此分割。请注意,我们已将此 RDD 的存储级别设置为在第一次计算后跨操作持久化其值。只有在 RDD 尚未设置存储级别时才能用于分配新的存储级别。拆分种子值是一个长整数,表示拆分将是随机的,但结果不会在模型构建或训练的每次运行或迭代中发生变化。

步骤 5:训练模型

首先我们将训练线性回归模型,这是最简单的回归分类器:

final double stepSize = 0.0000000009; 
final int numberOfIterations = 40;  
LinearRegressionModel model = LinearRegressionWithSGD.train(JavaRDD.toRDD(training), numberOfIterations, stepSize); 

如您所见,前面的代码使用随机梯度下降训练了一个没有正则化的线性回归模型。这解决了最小二乘回归公式 f (weights) = 1/n ||A weights-y||²^,即均方误差。这里数据矩阵有n行,输入 RDD 保存了 A 的一组行,每行都有其相应的右手边标签 y。此外,为了训练模型,它需要训练集、迭代次数和步长。我们在这里为最后两个参数提供了一些随机值。

步骤 6:将模型保存以备将来使用

现在让我们保存刚刚创建的模型以备将来使用。很简单 - 只需使用以下代码指定存储位置如下:

String model_storage_loc = "models/heartModel";   
model.save(spark.sparkContext(), model_storage_loc); 

一旦模型保存在您想要的位置,您将在 Eclipse 控制台中看到以下输出:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00047.jpeg

图 9:模型保存到存储后的日志

步骤 7:使用测试集评估模型

现在让我们在测试数据集上计算预测分数:

JavaPairRDD<Double,Double> predictionAndLabel = 
  test.mapToPair(new PairFunction<LabeledPoint, Double, Double>() { 
            @Override 
    public Tuple2<Double, Double> call(LabeledPoint p) { 
       return new Tuple2<>(model.predict(p.features()), p.label()); 
            } 
          });   

预测预测的准确性:

double accuracy = predictionAndLabel.filter(new Function<Tuple2<Double, Double>, Boolean>() { 
          @Override 
          public Boolean call(Tuple2<Double, Double> pl) { 
            return pl._1().equals(pl._2()); 
          } 
        }).count() / (double) test.count(); 
System.out.println("Accuracy of the classification: "+accuracy);   

输出如下:

Accuracy of the classification: 0.0 

步骤 8:使用不同的分类器进行预测分析

不幸的是,根本没有预测准确性,对吧?可能有几个原因,包括以下原因:

  • 数据集特征

  • 模型选择

  • 参数选择 - 也称为超参数调整

为简单起见,我们假设数据集是可以接受的,因为正如我们已经说过的那样,它是一个广泛使用的数据集,被全球许多研究人员用于机器学习研究。现在,接下来呢?让我们考虑另一个分类器算法,例如随机森林或决策树分类器。随机森林呢?让我们选择随机森林分类器。只需使用以下代码使用训练集训练模型:

Integer numClasses = 26; //Number of classes 

现在使用HashMap来限制树构造中的细微差别:

HashMap<Integer, Integer> categoricalFeaturesInfo = new HashMap<Integer, Integer>(); 

现在声明训练随机森林分类器所需的其他参数:

Integer numTrees = 5; // Use more in practice 
String featureSubsetStrategy = "auto"; // Let algorithm choose the best 
String impurity = "gini"; // info. gain & variance also available 
Integer maxDepth = 20; // set the value of maximum depth accordingly 
Integer maxBins = 40; // set the value of bin accordingly 
Integer seed = 12345; //Setting a long seed value is recommended       
final RandomForestModel model = RandomForest.trainClassifier(training, numClasses,categoricalFeaturesInfo, numTrees, featureSubsetStrategy, impurity, maxDepth, maxBins, seed); 

我们认为trainClassifier()方法使用的参数是不言自明的,所以我们将让读者了解每个参数的重要性。太棒了!我们已经使用随机森林分类器训练了模型,并管理云端保存了模型以备将来使用。现在,如果您重用我们在使用测试集评估模型步骤中描述的相同代码,您应该会得到以下输出:

Accuracy of the classification: 0.7843137254901961  

现在预测准确度应该会好得多。如果您仍然不满意,可以尝试使用另一个分类器模型,比如朴素贝叶斯分类器,并进行第七章中讨论的超参数调整,调整机器学习模型

步骤 9:使模型适应新数据集

我们已经提到我们已经保存了模型以备将来使用,现在我们应该抓住机会使用相同的模型来处理新数据集。原因是,如果您回忆一下步骤,我们已经使用训练集训练了模型,并使用测试集进行了评估。现在,如果您有更多数据或新数据可供使用,您会怎么做?您会重新训练模型吗?当然不会,因为您将不得不迭代多个步骤,而且还要牺牲宝贵的时间和成本。

因此,明智的做法是使用已经训练好的模型,并预测在新数据集上的性能。好了,现在让我们重用存储的模型。请注意,您将不得不重用要训练相同模型的模型。例如,如果您使用随机森林分类器进行模型训练并保存了模型,那么在重用时,您将不得不使用相同的分类器模型来加载保存的模型。因此,我们将使用随机森林来加载模型,同时使用新数据集。使用以下代码来实现这一点。现在从新数据集(即具有相同 14 个属性的匈牙利数据库)创建一个 RDD 标签点:

String new_data = "heart_diseases/processed_hungarian.data"; 
RDD<String> linesRDD = spark.sparkContext().textFile(new_data, 2); 
JavaRDD<LabeledPoint> data = linesRDD.toJavaRDD().map(new Function<String, LabeledPoint>() { 
      @Override 
  public LabeledPoint call(String row) throws Exception { 
  String line = row.replaceAll("\\?", "999999.0"); 
  String[] tokens = line.split(","); 
  Integer last = Integer.parseInt(tokens[13]); 
    double[] features = new double[13]; 
             for (int i = 0; i < 13; i++) { 
          features[i] = Double.parseDouble(tokens[i]); 
                } 
      Vector v = new DenseVector(features); 
      Double value = 0.0; 
      if (last.intValue() > 0) 
        value = 1.0; 
      LabeledPoint p = new LabeledPoint(value, v); 
      return p; 
      } }); 

现在让我们使用随机森林模型算法加载保存的模型如下:

RandomForestModel model2 =  
RandomForestModel.load(spark.sparkContext(), model_storage_loc); 

现在让我们计算测试集上的预测:

JavaPairRDD<Double, Double> predictionAndLabel = 
  data.mapToPair(new PairFunction<LabeledPoint, Double, Double>() { 
          @Override 
          public Tuple2<Double, Double> call(LabeledPoint p) { 
      return new Tuple2<>(model2.predict(p.features()), p.label()); 
            } 
          }); 

现在按如下方式计算预测的准确度:

double accuracy = predictionAndLabel.filter(new Function<Tuple2<Double, Double>, Boolean>() { 
          @Override 
          public Boolean call(Tuple2<Double, Double> pl) { 
            return pl._1().equals(pl._2()); 
          } 
        }).count() / (double) data.count(); 
System.out.println("Accuracy of the classification: "+accuracy);   

我们应该得到以下输出:

Accuracy of the classification: 0.9108910891089109 

现在训练朴素贝叶斯分类器并查看预测性能。只需下载朴素贝叶斯分类器的源代码,并使用包含所需 JAR 和 API 依赖项的pom.xml文件将代码作为 Maven 友好项目运行。

以下表显示了三个分类器(即线性回归、随机森林和朴素贝叶斯分类器)之间的预测准确性的比较。请注意,根据训练,您得到的模型可能会有不同的输出,因为我们随机将数据集分成训练集和测试集。

分类器模型构建时间模型保存时间准确度
线性回归1199 毫秒2563 毫秒0.0%
朴素贝叶斯873 毫秒2514 毫秒45%
随机森林2120 毫秒2538 毫秒91%

表 2:三个分类器之间的比较

注意

我们在一台 Windows 7(64 位)、Core i7(2.90GHz)处理器和 32GB 主内存的机器上获得了上述输出。因此,根据您的操作系统类型和硬件配置,您可能会收到不同的结果。

这样,ML 模型可以适应新的数据类型。但是,请确保您使用相同的分类器或回归器来训练和重用模型,以使 ML 应用程序具有适应性。

动态环境中的机器学习

在动态环境中进行预测并不总是能够产生期望的结果,特别是在复杂和非结构化的数据中。

有几个原因。例如,如何从少量数据中推断出真实的结果,或者处理被发现过于繁琐的非结构化和高维数据?此外,使用有效策略对现实环境进行模型修订也是昂贵的。

此外,有时输入数据集的维度很高。因此,数据可能过于密集或非常稀疏。在这种情况下,如何处理非常大的设置以及如何将静态模型应用于新兴应用领域,如机器人技术、图像处理、深度学习、计算机视觉或网络挖掘,是具有挑战性的。另一方面,集成方法越来越受欢迎,用于从现有模型中选择和组合模型,使 ML 模型更具适应性。图 10显示了基于分层和动态环境的学习:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00021.jpeg

图 10:动态环境中机器学习的层次结构

在这种情况下,诸如神经网络和基于统计的学习等 ML 技术也因其在生物系统等行业和研究中的成功而变得越来越受欢迎。特别是,诸如神经网络、决策树或矢量量化等经典学习算法通常受到纯前馈设置和简单矢量数据的限制,而不是动态环境。矢量化的特征通常提供更好的预测,因为具有丰富的结构。总之,在开发动态环境中的 ML 应用程序时存在三个挑战:

  • 数据结构如何在自主环境中形成?

  • 我们如何处理统计稀疏和高维的输入数据?更具体地说,如何使用在线算法对大规模数据集进行预测分析,应用降维等?

在只有有限的强化信号、不适当的域或部分未规定的设置下,我们如何在动态环境中开发受控和有效的策略?考虑到这些问题和研究中的有希望的进展,在本节中,我们将通过统计和对抗模型提供一些关于在线学习技术的见解。由于学习动态环境,如流式处理将在第九章中讨论,我们将不在本章讨论基于流式处理的学习。

在线学习

批处理学习技术通过一次性学习整个训练数据集生成最佳预测器,通常被称为静态学习。静态学习算法使用训练数据的批次来训练模型,然后使用测试样本和找到的关系进行预测,而在线学习算法则使用初始猜测模型,然后从训练人口中挑选一个观察值,并重新校准每个输入参数的权重。数据通常按顺序作为批次可用。顺序数据用于在每个步骤更新结果的最佳预测器,如图 11中所述。在线学习有三种用例:

  • 首先,当在整个数据集上训练 ML 模型在计算上是不可行的时,通常使用在线学习

  • 其次,它还用于需要算法动态适应数据中新模式的情况

  • 第三,当数据本身是随时间生成的函数时,例如股票价格预测

因此,在线学习需要考虑网络约束的算法,即可以执行的算法。存在两种用于在线学习模型的一般建模策略:

  • 统计学习模型:例如,随机梯度下降和感知器

  • 对抗模型:例如,垃圾邮件过滤属于这一类别,因为对手将根据垃圾邮件检测器的当前行为动态生成新的垃圾邮件。

虽然在线和增量学习技术相似,但也略有不同。在线学习通常是单次通过(epoch=1)或可以配置的若干次通过,而增量意味着您已经有一个模型。无论模型是如何构建的,新的示例都可以改变模型。此外,通常需要在线和增量的组合。

数据正在以前所未有的方式随处生成。这些庞大的数据对于构建能够处理高容量、高速度和高准确性数据的机器学习工具构成了巨大挑战。简而言之,在线生成的数据也是大数据。因此,我们需要了解学习处理这种高容量和高速度数据的在线学习算法的技术,而这些算法是为了在性能有限的机器上处理数据而设计的。

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00016.jpeg

图 11:批处理(静态)与在线学习,概述

统计学习模型

如已概述,在基于统计的学习模型中,如随机梯度下降(SGD)和人工神经网络或感知器,数据样本被假定为彼此独立。除此之外,还假定数据集是作为随机变量相同分布的。换句话说,它们不会随时间改变。因此,机器学习算法对数据的访问是有限的。

在统计学习模型领域,有两种被认为是重要的解释:

  • 第一种解释: 这将随机梯度下降方法视为最小化期望风险的问题。在无限的数据流中,预测分析被假定来自正态分布。因此,只使用随机梯度下降方法来限制偏差。这种解释对有限的训练集也是有效的。

  • 第二种解释: 这适用于有限的训练集情况,并将 SGD 算法视为增量梯度下降方法的一个实例。在这种情况下,人们会看到经验风险:由于增量梯度下降的梯度,迭代也是对梯度的随机估计,这种解释适用于最小化经验风险而不是期望风险。为什么允许多次通过数据,并且实际上会导致对偏差的更严格的界限。

对抗模型

经典机器学习,尤其是在课堂上教授的,强调静态环境,通常使用不变的数据进行预测。因此,与统计或因果推断或动态环境相比,形式上更容易。另一方面,在动态环境中将学习问题视为两个玩家之间的游戏,例如学习者与数据生成器之间的游戏,是对对抗模型的一个例子。这种建模和进行预测分析是非常繁琐的,因为世界并不知道您试图正式对其进行建模。

此外,您的模型对世界没有任何积极或消极的影响。因此,这种模型的最终目标是最小化由其他玩家的举动产生的情况所造成的损失。对手可以根据学习算法的输出在运行时或动态地调整生成的数据。由于对数据没有分布假设,因此在整个可能提前查看的序列中表现良好成为最终目标。此外,遗憾应该在最后一步的假设上最小化。根据 Cathy O.等人的说法(数学毁灭的武器,Cathy O’Neil 和 Crown,2016 年 9 月 6 日),对抗性机器学习可以定义如下:

对抗性机器学习是研究在假设这些类型的情况下让步甚至略微更现实的替代方案时会发生什么的正式名称(无害地称为放松假设)。

提示

在 Spark 2.0.0 发布之前,没有在发布中实现正式算法。因此,我们无法提供任何可以进一步详细解释的具体示例。感兴趣的读者应该查看最新的 Spark 发布以了解更新情况。

总结

在本章中,我们试图涵盖一些高级机器学习技术,使机器学习模型和应用程序能够适应新的问题和数据类型。

我们展示了几个机器学习算法的例子,这些算法通过批处理或静态学习来学习模型数据,每次看到新的训练实例时都会更新模型。

我们还讨论了如何通过泛化、增量学习、模型重用和动态环境使模型具有适应性。

在第九章中,流式和图数据的高级机器学习,我们将指导您如何使用 Spark MLlib 和 Spark ML 在流式和图数据上应用机器学习技术,例如主题建模。

第九章:流式和图形数据的高级机器学习

本章将指导读者如何借助 Spark MLlib、Spark ML 和 Spark Streaming 应用机器学习技术到流式和图形数据,使用 GraphX。例如,从 Twitter 的实时推文数据中进行主题建模。读者将能够使用现有的 API 从 Twitter 等流数据源构建实时和预测性应用程序。通过 Twitter 数据分析,我们将展示如何进行大规模社交情感分析。我们还将展示如何使用 Spark MLlib 开发大规模电影推荐系统,这是社交网络分析的一个隐含部分。简而言之,本章将涵盖以下主题:

  • 开发实时 ML 管道

  • 时间序列和社交网络分析

  • 使用 Spark 进行电影推荐

  • 从流式数据开发实时 ML 管道

  • 图形数据和半监督图形学习上的 ML 管道

然而,要成为一个有效和新兴的机器学习应用程序,实际上需要持续流动的标记数据。因此,对大规模非结构化数据进行预处理和准确标记数据本质上引入了许多不必要的延迟。

如今,我们经常听到和阅读关于实时机器学习的内容。人们通常在讨论从社交网络服务(SNS)、信用卡欺诈检测系统或从面向业务的交易数据中挖掘与客户相关的购买规则时,提供这种吸引人的业务场景。

根据许多机器学习专家的说法,实时不断地更新信用卡欺诈检测模型是可能的。这很棒,但对我来说并不现实,有几个原因。首先,确保这种数据的持续流动对于模型的重新训练并不是必要的。其次,在大多数机器学习系统中,创建标记数据可能是最慢、最昂贵的步骤。

开发实时 ML 管道

为了开发实时机器学习应用程序,我们需要持续获取数据。这些数据可能包括交易数据、简单文本、来自 Twitter 的推文、来自 Flume 或 Kafka 的消息或流式数据等,因为这些数据大多是非结构化的。

要部署这些类型的机器学习应用程序,我们需要经历一系列步骤。为我们的目的服务的数据最不可靠的来源是来自多个来源的实时数据。通常网络是性能瓶颈。

例如,并不保证您总是能够从 Twitter 收到大量推文。此外,即时对这些数据进行标记以构建一个 ML 模型并不是一个现实的想法。尽管如此,我们在这里提供了一个关于如何从实时流数据中开发和部署 ML 管道的真实见解。图 1显示了实时 ML 应用程序开发的工作流程。

流式数据收集作为非结构化文本数据

我们在这里要强调的是,实时流数据收集取决于:

  • 数据收集的目的。如果目的是开发在线信用卡欺诈检测系统,那么数据应该通过网络 API 从您自己的网络中收集。如果目的是收集社交媒体情感分析,那么数据可以从 Twitter、LinkedIn、Facebook 或报纸网站收集,如果目的是网络异常检测,数据可以从网络数据中收集。

  • 数据可用性是一个问题,因为并非所有社交媒体平台都提供公共 API 来收集数据。网络条件很重要,因为流数据量很大,需要非常快的网络连接。

  • 存储能力是一个重要考虑因素,因为几分钟的推文数据集合可能会产生数 GB 的数据。

此外,我们应该至少等待几天,然后将交易标记为欺诈非欺诈。相反,如果有人报告了欺诈交易,我们可以立即将该交易标记为欺诈以简化操作。

标记数据以进行监督式机器学习

标记的数据集在整个过程中起着核心作用。它确保很容易改变算法的参数,比如特征归一化或损失函数。在这种情况下,我们可以从逻辑回归、支持向量机SVM)或随机森林等多种算法中选择算法本身。

然而,我们不能改变标记的数据集,因为这些信息是预定义的,你的模型应该预测你已经拥有的标签。在之前的章节中,我们已经表明标记结构化数据需要相当长的时间。

现在想想我们将从流媒体或实时来源接收到的完全非结构化的流数据。在这种情况下,标记数据将需要相当长的时间。然而,我们还必须进行预处理,如标记化、清理、索引、去除停用词和去除非结构化数据中的特殊字符。

现在,基本上会有一个问题,*数据标记过程需要多长时间?*关于标记的数据集的最后一件事是,我们应该明白,如果我们不仔细进行标记,标记的数据集有时可能会存在偏见,这可能会导致模型性能出现很多问题。

创建和构建模型

用于训练情感分析、信用卡欺诈检测模型和关联规则挖掘模型,我们需要尽可能准确的交易数据示例。一旦我们有了标记的数据集,我们就可以开始训练和构建模型:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00142.jpeg

图 1:实时机器学习工作流程。

在第七章中,调整机器学习模型,我们讨论了如何选择适当的模型和 ML 算法,以产生更好的预测分析。该模型可以呈现为具有多个类的二进制或多类分类器。或者,使用 LDA 模型进行情感分析,使用主题建模概念。简而言之,图 1展示了实时机器学习工作流程。

实时预测分析

当您的 ML 模型经过适当的训练和构建后,您的模型已经准备好进行实时预测分析。如果您从模型中得到一个好的预测,那将是很棒的。然而,正如我们之前提到的,当讨论一些准确性问题时,例如真正的阳性和假阳性,如果假阳性的数量很高,那意味着模型的性能不尽人意。

这基本上意味着三件事:我们没有正确标记流数据集,在这种情况下迭代第二步(标记图 1中的数据),或者没有选择适当的 ML 算法来训练模型,最后我们没有调整最终能帮助我们找到适当超参数或模型选择;在这种情况下,直接进入第七步(图 1中的模型部署)。

调整 ML 模型以改进和模型评估

如在第四步(图 1中的模型评估)中提到的,如果模型的性能不令人满意或令人信服,那么我们需要调整模型。正如在第七章中讨论的,我们学习了如何选择适当的模型和 ML 算法,以产生更好的预测分析。有几种调整模型性能的技术,我们可以根据需求和情况选择其中的一种。当我们完成调整后,最后我们应该进行模型评估。

模型的适应性和部署

当我们拥有调整和找到最佳模型时,机器学习模型必须准备好在每次看到新的训练实例时逐渐学习新的数据类型。当我们的模型准备好为大规模流数据进行准确可靠的预测时,我们可以将其部署到现实生活中。

时间序列和社交网络分析

在本节中,我们将尝试提供一些见解和挑战,以处理和开发来自时间序列和社交网络数据的大规模 ML 管道。

时间序列分析

时间序列数据通常出现在监控工业过程或跟踪企业业务指标的情况下。通过时间序列方法对数据进行建模的一个基本区别是,时间序列分析考虑到随时间采集的数据点可能具有内部结构。

这可能包括应该考虑的自相关、趋势或季节性变化。在这方面,回归分析主要用于测试理论。目标是测试以确保一个或多个独立时间序列参数的当前值与其他时间序列数据的当前属性相关联。

为了开发大规模的预测分析应用程序,时间序列分析技术可以应用于实值、分类变量、连续数据、离散数值数据,甚至离散符号数据。时间序列是一系列浮点值,每个值都与时间戳相关联。特别是,我们尽可能坚持时间序列的含义是指单变量时间序列,尽管在其他情境中,它有时指的是在同一时间戳上的多个值的系列。

时间序列数据中的一个瞬时是与单个时间点对应的一系列时间序列中的值向量。一个观察是一个元组(时间戳、键、值),即时间序列或瞬时中的单个值。简而言之,时间序列主要具有四个特征:

  • 带有趋势的系列:由于观察结果随时间增加或减少,尽管趋势是持久的并且具有长期运动。

  • 带有季节性的系列数据:由于观察结果保持高位然后下降,并且一些模式从一个周期重复到下一个周期,并且包含定期的周期性波动,比如在 12 个月的周期内。

  • 带有循环成分的系列数据:由于业务模型定期变化,即,商业中的衰退有时是循环的。它还可能包含超过一年的重复波动或运动。

  • 随机变化:给时间序列图表带来不规则或锯齿状外观的不可预测的组成部分。它还包含不规则或残余的波动。

由于这些具有挑战性的特征,为了实际目的开发实际的机器学习应用变得非常困难。因此,到目前为止,只有一个用于时间序列数据分析的软件包可用,由 Cloudera 开发;它被称为 Spark-TS 库。这里每个时间序列通常都带有一个键,可以在一系列时间序列中识别它。

然而,Spark 的当前实现没有为时间序列数据分析提供任何实现的算法。然而,由于这是一个新兴和热门的话题,希望在未来的版本中至少会有一些算法在 Spark 中实现。在第十章中,配置和使用外部库,我们将更深入地介绍如何使用这些类型的第三方包与 Spark。

社交网络分析

社交网络由节点(点)和相关链接组成,其中节点、链接或边缘是可识别的分析类别。这些节点可能包括有关人、群体和组织的信息。通常,这些信息通常是任何类型的社交实验和分析的主要重点和关注点。这种分析中的链接侧重于以集体方式包括社交联系和可交换信息,以扩大社交互动,例如 Facebook、LinkedIn、Twitter 等。因此,很明显,嵌入在更大社交过程、链接和节点网络中的组织会影响其他人。

另一方面,根据 Otte E.et al.(社交网络分析:信息科学的强大策略,也用于信息科学,信息科学杂志,28:441-453),社交网络分析SNA)是研究发现连接的人或群体之间关系的映射和测量。它还用于找到人、群体、组织和信息处理实体之间的流动。

适当的 SNA 分析可用于显示三种最流行的个体中心性度量之间的区别:度中心性、中介中心性和亲近中心性。度中心性表示节点具有多少链接或事件,或者节点有多少联系。

中介中心性是图中顶点的中心性度量。这也考虑了中介边缘。此外,中介中心性表示节点作为桥梁的次数,通过考虑其他节点之间的最短路径。

另一方面,节点的亲近中心性是连接图中特定节点与所有其他节点之间最短路径的平均长度,例如社交网络。

提示

建议感兴趣的读者阅读更多关于特征向量中心性、Katz 中心性、PageRank 中心性、渗流中心性、交叉团中心性和 alpha 中心性,以便正确理解统计和社交网络中心性。

社交网络通常表示为连接的图(有向或无向)。因此,它还涉及图数据分析,其中人们充当节点,而连接或链接充当边缘。此外,从社交网络收集和分析大规模数据,然后开发预测性和描述性分析应用程序,例如 Facebook、Twitter 和 LinkedIn,也涉及社交网络数据分析,包括:链接预测,如预测关系或友谊,社交网络中的社区确定,如图上的聚类,以及确定网络中的意见领袖,如果在图数据上进行了适当的结构,则本质上是一个 PageRank 问题。

Spark 有专门用于图分析的 API,称为 GraphX。例如,可以使用此 API 搜索垃圾邮件,对搜索结果进行排名,在社交网络中确定社区,或搜索意见领袖,这并不是分析图形的应用方法的完整列表。我们将在本章后面更详细地讨论如何使用 GraphX。

使用 Spark 进行电影推荐

基于模型的协同过滤通常被许多公司使用,比如 Netflix,作为实时电影推荐的推荐系统。在本节中,我们将看到一个完整的示例,说明它是如何为新用户推荐电影的。

使用 Spark MLlib 进行基于模型的电影推荐

Spark MLlib 中的实现支持基于模型的协同过滤。在基于模型的协同过滤技术中,用户和产品由一小组因子描述,也称为潜在因子LFs)。然后使用这些 LFs 来预测缺失的条目。Spark API 提供了交替最小二乘(也被广泛称为ALS)算法的实现,用于通过考虑六个参数来学习这些潜在因子,包括:

  • numBlocks

  • rank

  • iterations

  • lambda

  • implicitPrefs

  • alpha

要了解更多关于这些参数的信息,请参考第五章中的推荐系统部分,通过示例进行监督和无监督学习。请注意,要使用默认参数构建 ALS 实例,可以根据您的需求设置值。默认值如下:numBlocks:-1,rank:10,iterations:10,lambda:0.01,implicitPrefs:false,alpha:1.0。

简而言之,构建 ALS 实例的方法如下:

  • 首先,ALS 是一个迭代算法,用于将评分矩阵建模为低排名用户和产品因子的乘积

  • 之后,通过最小化观察到的评分的重建误差,使用这些因子进行学习任务。

然而,未知的评分可以通过将这些因子相乘来逐步计算。

基于 Spark MLlib 中使用的协同过滤技术进行电影推荐或其他推荐的方法已被证明具有高预测准确性,并且在像 Netflix 这样的公司使用的商品集群上可扩展到数十亿的评分。通过遵循这种方法,Netflix 这样的公司可以根据预测的评分向其订阅者推荐电影。最终目标是增加销售,当然也是客户满意度。

数据探索

电影及其对应的评分数据集是从 MovieLens 网站(movielens.org)下载的。根据 MovieLens 网站上的数据描述,所有评分都在ratings.csv文件中描述。该文件的每一行(包括标题)代表一个用户对一部电影的评分。

CSV 数据集包含以下列:userIdmovieIdratingtimestamp,如图 2所示。行首先按userId在用户内部排序,然后按movieId排序。评分采用五星制,可以增加 0.5 星(0.5 星至 5.0 星)。时间戳表示自 1970 年 1 月 1 日协调世界时UTC)午夜以来的秒数,我们有 105,339 个评分,来自 668 个用户对 10,325 部电影进行评分:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00123.jpeg

图 2:前 20 部电影的样本评分。

另一方面,电影信息包含在movies.csv文件中。除了标题信息之外,每一行代表一个电影,包含列:movieIdtitlegenres

电影标题可以手动创建、插入,或者从www.themoviedb.org/电影数据库网站导入。然而,发行年份显示在括号中。

由于电影标题是手动插入的,因此这些标题可能存在错误或不一致。因此,建议读者检查 IMDb 数据库(www.ibdb.com/)以确保没有不一致或不正确的标题及其对应的发行年份。

类型是一个分隔的列表,从以下类型类别中选择:

  • 动作,冒险,动画,儿童,喜剧,犯罪

  • 纪录片,戏剧,奇幻,黑色电影,恐怖,音乐

  • 神秘,浪漫,科幻,惊悚,西部,战争

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00065.jpeg

图 3:前 20 部电影的标题和类型。

使用 Spark MLlib 进行电影推荐

在本小节中,我们将通过逐步示例从数据收集到电影推荐来向您展示如何为其他用户推荐电影。从 Packt 的补充文件中下载movies.csvratings.csv文件,并将它们放在您的项目目录中。

步骤 1:配置您的 Spark 环境

以下是配置您的 Spark 环境的代码:

static SparkSession spark = SparkSession 
      .builder() 
      .appName("JavaLDAExample") 
         .master("local[*]") 
         .config("spark.sql.warehouse.dir", "E:/Exp/"). 
          getOrCreate(); 

步骤 2:加载、解析和探索电影和评分数据集

以下是代码示例:

String ratigsFile = "input/ratings.csv"; 
Dataset<Row> df1 = spark.read().format("com.databricks.spark.csv").option("header", "true").load(ratigsFile);     
Dataset<Row> ratingsDF = df1.select(df1.col("userId"), df1.col("movieId"), df1.col("rating"),  df1.col("timestamp")); 
ratingsDF.show(false); 

这段代码应该返回与图 2中相同的评分Dataset<Row>。另一方面,以下代码段显示了与图 3中相同的电影Dataset<Row>

String moviesFile = "input/movies.csv"; 
Dataset<Row> df2 = spark.read().format("com.databricks.spark.csv").option("header", "true").load(moviesFile); 
Dataset<Row> moviesDF = df2.select(df2.col("movieId"), df2.col("title"), df2.col("genres"));  
moviesDF.show(false); 

步骤 3:将两个数据集都注册为临时表

要注册这两个数据集,我们可以使用以下代码:

ratingsDF.createOrReplaceTempView("ratings"); 
moviesDF.createOrReplaceTempView("movies"); 

这将通过在内存中创建一个临时视图作为表来加快内存查询的速度。使用createOrReplaceTempView()方法创建的临时表的生命周期与用于创建此数据集的[[SparkSession]]相关联。

步骤 4:探索和查询相关统计数据

让我们来检查与评分相关的统计数据。只需使用以下代码行:

long numRatings = ratingsDF.count(); 
long numUsers = ratingsDF.select(ratingsDF.col("userId")).distinct().count(); 
long numMovies = ratingsDF.select(ratingsDF.col("movieId")).distinct().count(); 
System.out.println("Got " + numRatings + " ratings from " + numUsers + " users on " + numMovies + " movies."); 

您应该发现来自 668 个用户对 10,325 部电影的 105,339 个评分。现在,让我们获取最高和最低评分以及对电影进行评分的用户数量。

但是,您需要在上一步中刚刚在内存中创建的评分表上执行 SQL 查询。在这里进行查询很简单,类似于从 MySQL 数据库或 RDBMS 进行查询。

但是,如果您不熟悉基于 SQL 的查询,建议您查看 SQL 查询规范,以了解如何使用SELECT从特定表中进行选择,如何使用ORDER进行排序,以及如何使用JOIN关键字进行连接操作。

如果您了解 SQL 查询,您应该通过使用以下复杂的 SQL 查询得到一个新的数据集:

Dataset<Row> results = spark.sql("select movies.title, movierates.maxr, movierates.minr, movierates.cntu " + "from(SELECT ratings.movieId,max(ratings.rating) as maxr,"  + "min(ratings.rating) as minr,count(distinct userId) as cntu "  + "FROM ratings group by ratings.movieId) movierates " + "join movies on movierates.movieId=movies.movieId " + "order by movierates.cntu desc"); 
results.show(false); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00108.jpeg

图 4:最高和最低评分以及对电影进行评分的用户数量。

为了更深入地了解,我们需要了解更多关于用户及其评分的信息。现在让我们找出最活跃的用户以及他们对电影进行评分的次数:

Dataset<Row> mostActiveUsersSchemaRDD = spark.sql("SELECT ratings.userId, count(*) as ct from ratings " + "group by ratings.userId order by ct desc limit 10"); 
mostActiveUsersSchemaRDD.show(false); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00135.jpeg

图 5:单个用户提供的评分数量。

现在让我们看看特定用户,并找出比如说用户 668 给出了高于 4 分的电影:

Dataset<Row> results2 = spark.sql("SELECT ratings.userId, ratings.movieId," + "ratings.rating, movies.title FROM ratings JOIN movies "+ "ON movies.movieId=ratings.movieId " + "where ratings.userId=668 and ratings.rating > 4"); 
results2.show(false); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00146.jpeg

图 6:用户 668 的相关评分。

步骤 5:准备训练和测试评分数据并查看计数

以下是代码示例:

Dataset<Row> [] splits = ratingsDF.randomSplit(new double[] { 0.8, 0.2 }); 
Dataset<Row> trainingData = splits[0]; 
Dataset<Row> testData = splits[1]; 
long numTraining = trainingData.count(); 
long numTest = testData.count(); 
System.out.println("Training: " + numTraining + " test: " + numTest); 

您应该发现在训练集中有 84,011 个评分,在测试集中有 21,328 个评分。

步骤 6:准备数据以构建使用 ALS 的推荐模型

以下代码示例用于构建使用 API 的推荐模型:

JavaRDD<Rating> ratingsRDD = trainingData.toJavaRDD().map(new Function<Row, Rating>() { 
      @Override 
      public Rating call(Row r) throws Exception { 
        // TODO Auto-generated method stub 
        int userId = Integer.parseInt(r.getString(0)); 
        int movieId = Integer.parseInt(r.getString(1)); 
        double ratings = Double.parseDouble(r.getString(2)); 
        return new Rating(userId, movieId, ratings); 
      } 
    }); 

ratingsRDD RDD 将包含来自我们在上一步准备的训练数据集的userIdmovieId和相应的评分。另一方面,以下testRDD也包含来自我们在上一步准备的测试数据集的相同信息:

JavaRDD<Rating> testRDD = testData.toJavaRDD().map(new Function<Row, Rating>() { 
      @Override 
      public Rating call(Row r) throws Exception { 
        int userId = Integer.parseInt(r.getString(0)); 
        int movieId = Integer.parseInt(r.getString(1)); 
        double ratings = Double.parseDouble(r.getString(2)); 
        return new Rating(userId, movieId, ratings); 
      } 
    }); 

步骤 7:构建 ALS 用户产品矩阵

基于ratingsRDD构建一个 ALS 用户矩阵模型,指定 rank、iterations 和 lambda:

int rank = 20; 
int numIterations = 10; 
double lambda = 0.01; 
MatrixFactorizationModel model = ALS.train(JavaRDD.toRDD(ratingsRDD), rank, numIterations, 0.01); 

  • 请注意,我们已随机选择了 rank 的值为20,并且已对模型进行了 10 次学习迭代,lambda 为0.01。通过这个设置,我们得到了良好的预测准确性。建议读者应用超参数调整来了解这些参数的最佳值。

  • 然而,建议读者根据其数据集更改这两个参数的值。此外,如前所述,他们还可以使用和指定其他参数,如numberblockimplicitPrefsalpha,如果预测性能不理想。此外,将用户块和产品块的块数设置为pass -1,以将计算并行化为自动配置的块数。该值为-1

第 8 步:进行预测

让我们为用户 668 获取前六部电影的预测:

System.out.println("Rating:(UserID, MovieId, Rating)"); 
Rating[] topRecsForUser = model.recommendProducts(668, 6); 
for (Rating rating : topRecsForUser) 
System.out.println(rating.toString()); 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00145.jpeg

图 7:用户 668 评分最高的六部电影。

第 9 步:获取预测评分以与测试评分进行比较

以下是所示的代码:

JavaRDD<Tuple2<Object, Object>> testUserProductRDD = testData.toJavaRDD() 
        .map(new Function<Row, Tuple2<Object, Object>>() { 
          @Override 
          public Tuple2<Object, Object> call(Row r) throws Exception { 

            int userId = Integer.parseInt(r.getString(0)); 
            int movieId = Integer.parseInt(r.getString(1)); 
            double ratings = Double.parseDouble(r.getString(2)); 
            return new Tuple2<Object, Object>(userId, movieId); 
          } 
        }); 
JavaRDD<Rating> predictionsForTestRDD = model.predict(JavaRDD.toRDD(testUserProductRDD)).toJavaRDD(); 

现在让我们检查 10 个用户的前 10 个预测:

System.out.println(predictionsForTestRDD.take(10).toString()); 

第 10 步:准备预测

在这里,我们将以两个步骤准备与 RDD 相关的预测。第一步包括从predictionsForTestRDD RDD 结构中准备比较的预测。步骤如下:

JavaPairRDD<Tuple2<Integer, Integer>, Double> predictionsKeyedByUserProductRDD = JavaPairRDD.fromJavaRDD( 
        predictionsForTestRDD.map(new Function<Rating, Tuple2<Tuple2<Integer, Integer>, Double>>() { 
          @Override 
          public Tuple2<Tuple2<Integer, Integer>, Double> call(Rating r) throws Exception { 
            return new Tuple2<Tuple2<Integer, Integer>, Double>( 
                new Tuple2<Integer, Integer>(r.user(), r.product()), r.rating()); 
          } 
        })); 

第二步包括准备测试以进行比较:

JavaPairRDD<Tuple2<Integer, Integer>, Double> testKeyedByUserProductRDD = JavaPairRDD  .fromJavaRDD(testRDD.map(new Function<Rating, Tuple2<Tuple2<Integer, Integer>, Double>>() { 
          @Override 
          public Tuple2<Tuple2<Integer, Integer>, Double> call(Rating r) throws Exception { 
            return new Tuple2<Tuple2<Integer, Integer>, Double>( 
                new Tuple2<Integer, Integer>(r.user(), r.product()), r.rating()); 
          } 
        })); 

第 11 步:将测试与预测结合起来,看看综合评分

testKeyedByUserProductRDDpredictionsKeyedByUserProductRDD RDD 连接起来,以获取每个用户和movieId的组合测试以及预测评分:

JavaPairRDD<Tuple2<Integer, Integer>, Tuple2<Double, Double>> testAndPredictionsJoinedRDD = testKeyedByUserProductRDD 
        .join(predictionsKeyedByUserProductRDD); 
System.out.println("(UserID, MovieId) => (Test rating, Predicted rating)"); 
System.out.println("----------------------------------"); 
for (Tuple2<Tuple2<Integer, Integer>, Tuple2<Double, Double>> t : testAndPredictionsJoinedRDD.take(6)) { 
      Tuple2<Integer, Integer> userProduct = t._1; 
      Tuple2<Double, Double> testAndPredictedRating = t._2; 
      System.out.println("(" + userProduct._1() + "," + userProduct._2() + ") => (" + testAndPredictedRating._1() 
          + "," + testAndPredictedRating._2() + ")"); 
    } 

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00076.jpeg

图 8:组合测试以及对每个用户和电影 ID 的预测评分。

第 12 步:评估模型对预测性能的表现

通过检查真正的正面预测和假阳性的数量来检查 ALS 模型的性能:

JavaPairRDD<Tuple2<Integer, Integer>, Tuple2<Double, Double>> truePositives = testAndPredictionsJoinedRDD 
        .filter(new Function<Tuple2<Tuple2<Integer, Integer>, Tuple2<Double, Double>>, Boolean>() { 
          @Override 
          public Boolean call(Tuple2<Tuple2<Integer, Integer>, Tuple2<Double, Double>> r) throws Exception { 
            return (r._2._1() <= 1 && r._2._2() < 5); 
          } 
        }); 

现在打印真正的正面预测数量。我们认为当预测评分低于最高评分(即5)时,预测是真正的预测。因此,如果预测评分大于或等于5,则将该预测视为假阳性:

for (Tuple2<Tuple2<Integer, Integer>, Tuple2<Double, Double>> t : truePositives.take(2)) { 
      Tuple2<Integer, Integer> userProduct = t._1; 
      Tuple2<Double, Double> testAndPredictedRating = t._2; 
    } 
System.out.println("Number of true positive prediction is: "+ truePositives.count()); 

您应该找到以下值。

真正的正面预测数量为 798。现在是时候打印假阳性的统计数据了:

JavaPairRDD<Tuple2<Integer, Integer>, Tuple2<Double, Double>> falsePositives = testAndPredictionsJoinedRDD 
        .filter(new Function<Tuple2<Tuple2<Integer, Integer>, Tuple2<Double, Double>>, Boolean>() { 
          @Override 
          public Boolean call(Tuple2<Tuple2<Integer, Integer>, Tuple2<Double, Double>> r) throws Exception { 
            return (r._2._1() <= 1 && r._2._2() >= 5); 
          } 
        }); 
for (Tuple2<Tuple2<Integer, Integer>, Tuple2<Double, Double>> t : falsePositives.take(2)) { 
      Tuple2<Integer, Integer> userProduct = t._1; 
      Tuple2<Double, Double> testAndPredictedRating = t._2; 
    } 
System.out.println("Number of false positive prediction is: "+ falsePositives.count()); 

在这个特定的例子中,我们只有 14 个假阳性预测,这是非常出色的。现在让我们通过测试和预测之间的平均绝对误差计算来检查预测的性能:

double meanAbsoluteError = JavaDoubleRDD        .fromRDD(testAndPredictionsJoinedRDD.values().map(new Function<Tuple2<Double, Double>, Object>() { 
          public Object call(Tuple2<Double, Double> pair) { 
            Double err = pair._1() - pair._2(); 
            return err * err; 
          } 
        }).rdd()).mean(); 
    System.out.printing("Mean Absolute Error: "+meanAbsoluteError); 

这将返回以下值:

Mean Absolute Error: 1.5800601618477566 

从流构建实时 ML 管道

根据 Spark 在spark.apache.org/docs/latest/streaming-programming-guide.html提供的 API 指南,技术上,Spark Streaming 接收实时输入数据流作为对象(对象可以是Java/Python/R对象)。随后,流被分成批次,然后由 Spark 引擎处理以生成批处理的最终输入流。为了使这个过程更加简单,Spark Streaming 提供了一个高级抽象,也称为离散流或 DStream。

DStream代表来自实时流数据源(如 Twitter、Kafka、Fume、Kinesis、传感器或其他源)的连续数据流。可以从这些源创建离散流,或者也可以对其他 DStreams 应用高级操作来进行处理。在内部,DStream 被表示为一系列 RDD,这意味着 RDD 抽象已被重用以处理 RDD 流。

如已在第六章中讨论的构建大规模机器学习管道,主题建模技术会自动推断讨论的主题,并将它们隐含地放置在文档集合中作为隐藏资源。这在自然语言处理NLP)和文本挖掘任务中常用。这些主题可以用于分析、总结和组织这些文档。或者,这些主题可以在机器学习ML)管道开发的后期阶段用于特征化和降维。最流行的主题建模算法是潜在狄利克雷分配LDA)和概率潜在语义分析pLSA)。之前我们讨论了如何应用 LDA 算法来处理已有的静态数据集。然而,如果主题建模是从实时流数据中准备的,那将会很棒,并且在了解 Twitter、LinkedIn 或 Facebook 等社交媒体趋势方面更加实时。

然而,由于 Facebook 或 LinkedIn 的有限 API 功能,从这些社交媒体平台收集实时数据将会很困难。Spark 还提供了用于访问来自 Twitter、Kafka、Flume 和 Kinesis 的数据的 API。从流数据开发近实时 ML 应用程序的工作流程应遵循图 9中呈现的工作流程:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00129.jpeg

图 9:使用 Spark 从流数据开发实时预测 ML 模型。

在本节中,我们将向您展示如何开发一个处理流数据的实时 ML 管道。更具体地说,我们将展示从 Twitter 流数据中逐步进行主题建模。这里的主题建模有两个步骤:Twitter 数据收集和使用 LDA 进行主题建模。

从 Twitter 收集实时推文数据

Spark 提供了 API 来访问来自 Twitter 时间线的实时推文。这些推文可以通过关键词或标签进一步制作。或者,也可以从某人的 Twitter 时间线下载推文。但是,在访问推文数据之前,您需要在 Twitter 上创建一个样本 Twitter 应用程序,并生成四个密钥:consumerKeyconsumerSecretaccessTokenaccessTokenSecret

提示

请注意,从 Spark 1.6.2 升级到 2.0.0 时,Twitter(和其他一些)驱动程序支持已被移除。这意味着在 Spark 2.0.0 中已删除了使用 Spark 进行流数据收集支持的较少使用的流连接器,包括 Twitter、Akka、MQTT 和 ZeroMQ。因此,不可能使用 Spark 2.0.0 开发用于 Twitter 数据收集的应用程序。因此,在本节中将使用 Spark 1.6.1 进行 Twitter 数据收集的演示。建议读者使用提供的 Maven 友好的pom.xml文件在 Eclipse 上创建一个 Maven 项目。

在对 Spark ML 应用程序进行身份验证以收集来自 Twitter 的数据之后,您将需要通过指定SparkConf和收集推文的持续时间来定义JavaStreamingContext。之后,通过使用 Spark 的TwitterUtils API,推文数据可以作为 DStream 或离散流下载,一旦使用JavaStreamingContext对象撤销start()方法。

开始接收推文后,您可以将推文数据保存在本地计算机、HDFS 或其他适用的文件系统上。但是,流将持续进行,直到您使用awaitTermination()终止流。

然而,接收到的推文也可以通过使用foreachRDD设计模式进行预处理或清理,然后可以保存到您想要的位置。由于页面限制,我们在这里限制了我们的讨论。

提示

此外,感兴趣的读者应该遵循 Spark Streaming 的 API 指南,网页地址为:spark.apache.org/docs/latest/streaming-programming-guide.html

使用 Spark 的 TwitterUtils API 进行推文收集

在这个小节中,首先,我们将向您展示如何使用TwitterUtils API 从 Twitter 收集实时推文数据。然后相同的推文数据将在下一个小节中用于主题建模。

步骤 1:加载所需的包和 API

以下是加载所需包的代码:

import org.apache.log4j.Level; 
import org.apache.log4j.Logger; 
import org.apache.spark.SparkConf; 
import org.apache.spark.api.java.JavaRDD; 
import org.apache.spark.api.java.function.Function; 
import org.apache.spark.streaming.Duration; 
import org.apache.spark.streaming.api.java.JavaDStream; 
import org.apache.spark.streaming.api.java.JavaStreamingContext; 
import org.apache.spark.streaming.twitter.TwitterUtils; 
import twitter4j.Status;  

步骤 2:设置日志记录器级别

为了设置日志记录器级别,我们使用以下代码:

Logger.getLogger("org").setLevel(Level.OFF); 
Logger.getLogger("akka").setLevel(Level.OFF); 
Logger.getLogger("org.apache.spark").setLevel(Level.WARN); 
Logger.getLogger("org.eclipse.jetty.server").setLevel(Level.OFF);  

步骤 3:设置 Spark 流环境

以下是 Spark 流的代码示例:

SparkConf conf = new SparkConf().setMaster("local[*]").setAppName("TwitterExample"); 
JavaStreamingContext jssc = new JavaStreamingContext(conf, new Duration(1000)); 

步骤 4:设置访问 Twitter 数据的身份验证

通过访问以下网址从示例 Twitter 应用程序获取认证值:apps.twitter.com/

String consumerKey = "VQINrM6ZcNqaCAawA6IN4xRTP"; 
String consumerSecret = "F2OsVEuJypOZSAoNDFrWgoCHyNJNXbTr8T3yEbp9cWEYjTctye"; 
String accessToken = "475468363-IfRcZnbkEVPRw6bwXovMnw1FsbxuetvEF2JvbAvD"; 
String accessTokenSecret = "vU7VtzZVyugUHO7ddeTvucu1wRrCZqFTPJUW8VAe6xgyf"; 

请注意,这里我们为这四个秘密密钥提供了相同的值。请根据自己的密钥替换这些值。现在,我们需要使用twitter4j.oauth为前面的四个密钥设置系统属性:

System.setProperty("twitter4j.oauth.consumerKey", consumerKey); 
System.setProperty("twitter4j.oauth.consumerSecret", consumerSecret); 
System.setProperty("twitter4j.oauth.accessToken", accessToken); 
System.setProperty("twitter4j.oauth.accessTokenSecret", accessTokenSecret); 

步骤 5:启用检查点

以下代码显示了如何启用检查点:

jssc.checkpoint("src/main/resources/twitterdata/"); 

元数据检查点主要用于从驱动程序故障中恢复,而数据或 RDD 检查点即使在使用有状态转换时也是基本功能所必需的。有关更多详细信息,请访问 Spark 的以下网页:spark.apache.org/docs/latest/streaming-programming-guide.html#checkpointing

步骤 6:开始接受推文流作为离散流

让我们只收集 100 条推文以简化,但可以收集任意数量的推文:

JavaDStream<Status> tweets = TwitterUtils.createStream(jssc); 
final String outputDirectory="src/main/resources/twitterdata/"; 
final long numTweetsToCollect = 100; 

步骤 7:筛选推文并保存为普通文本文件

筛选推文的代码显示在这里:

tweets.foreachRDD(new Function<JavaRDD<Status>, Void>() { 
      public long numTweetsCollected = 0; 
      @Override 
      public Void call(JavaRDD<Status> status) throws Exception {         
        long count = status.count(); 
        if (count > 0) { 
          status.saveAsTextFile(outputDirectory + "/tweets_" + System.currentTimeMillis()); 
          numTweetsCollected += count; 
          if (numTweetsCollected >= numTweetsToCollect) { 
               System.exit(0); 
          } 
        } 
        return null; 
      } 
    }); 

在这里,我们使用单例方法foreachRDD对推文进行预处理,该方法仅接受经过筛选的推文,即,如果状态计数至少为 1。当收集的推文数量等于或多于要收集的推文数量时,我们退出收集。最后,我们将推文保存为文本文件在输出目录中。

步骤 8:控制流开关

控制流开关的代码显示在这里:

jssc.start(); 
jssc.awaitTermination();  

最终,我们将在下一步中使用这些推文的文本进行主题建模。如果您还记得第六章中的主题建模,构建可扩展的机器学习管道,我们看到了相应的术语权重、主题名称和术语索引。然而,我们还需要实际的术语。在下一步中,我们将展示详细的检索术语的技术,这取决于需要为此创建的词汇表。

使用 Spark 进行主题建模

在这个小节中,我们使用 Spark 表示了一种半自动的主题建模技术。以下步骤展示了从数据读取到打印主题及其术语权重的主题建模。

步骤 1:加载必要的包和 API

以下是加载必要包的代码:

import java.io.Serializable; 
import java.util.ArrayList; 
import java.util.HashMap; 
import java.util.Map; 
import org.apache.log4j.Level; 
import org.apache.log4j.Logger; 
import org.apache.spark.SparkConf; 
import org.apache.spark.api.java.JavaPairRDD; 
import org.apache.spark.api.java.JavaRDD; 
import org.apache.spark.api.java.JavaSparkContext; 
import org.apache.spark.api.java.function.Function; 
import org.apache.spark.api.java.function.Function2; 
import org.apache.spark.api.java.function.PairFlatMapFunction; 
import org.apache.spark.api.java.function.PairFunction; 
import org.apache.spark.ml.feature.StopWordsRemover; 
import org.apache.spark.mllib.clustering.LDA; 
import org.apache.spark.mllib.clustering.LDAModel; 
import org.apache.spark.mllib.linalg.Vector; 
import org.apache.spark.mllib.linalg.Vectors; 
import org.apache.spark.sql.SQLContext; 
import scala.Tuple2; 

步骤 2:配置 Spark 环境

以下是配置 Spark 的代码:

private transient static SparkConf sparkConf = new SparkConf().setMaster("local[*]").setAppName("TopicModelingLDA"); 
private transient static JavaSparkContext jsc = new JavaSparkContext(sparkConf); 
private transient static SQLContext sqlContext = new org.apache.spark.sql.SQLContext(jsc); 

步骤 3:设置日志级别

以下是设置日志级别的代码:

Logger.getLogger("org").setLevel(Level.OFF); 
Logger.getLogger("akka").setLevel(Level.OFF); 
Logger.getLogger("org.apache.spark").setLevel(Level.WARN); 
Logger.getLogger("org.eclipse.jetty.server").setLevel(Level.OFF); 

注意

请注意,设置刚刚显示的日志级别是可选的。

步骤 4:创建 Java RDD 并将它们缓存在内存中

创建 Java RDD 并将它们缓存在上一步的推文数据中:

JavaRDD<String> data = jsc.wholeTextFiles("src/main/resources/test/*.txt") 
        .map(new Function<Tuple2<String, String>, String>() { 
          @Override 
          public String call(Tuple2<String, String> v1) throws Exception {     
            return v1._2; 
          } 
        }).cache(); 

步骤 5:对术语进行标记化

加载 Spark 提供的停用词列表,并通过应用三个约束条件对术语进行标记化:文本长度至少为 4,不是停用词,并将它们转换为小写。请注意,我们在第六章中讨论了停用词,构建可扩展的机器学习管道

public static String[] stopwords = new StopWordsRemover().getStopWords(); 
JavaRDD<String[]> tokenized = data.map(new Function<String, String[]>() { 
list.toArray(new String[0]); 
      }      @Override 
      public String[] call(String v1) throws Exception { 
        ArrayList<String> list = new ArrayList<>(); 
        for (String s : v1.split("\\s")) { 
          if (s.length() > 3 && !isStopWord(s) && isOnlyLetter(s)) 
            list.add(s.toLowerCase()); 
        } 
        return 
    }); 

步骤 6:准备术语计数

通过应用四个约束条件对术语计数进行准备:文本长度至少为 4,不是停用词,仅选择字符,并将它们全部转换为小写:

JavaPairRDD<String, Integer> termCounts = data 
        .flatMapToPair(new PairFlatMapFunction<String, String, Integer>() { 
          @Override 
          public Iterable<Tuple2<String, Integer>> call(String t) throws Exception {     
            ArrayList<Tuple2<String, Integer>> tc = new ArrayList<>();   
            for (String s : t.split("\\s")) { 

              if (s.length() > 3 && !isStopWord(s) && isOnlyLetter(s)) 
                tc.add(new Tuple2<String, Integer>(s.toLowerCase(), 1)); 
            } 
            return tc; 
          } 
        }).reduceByKey(new Function2<Integer, Integer, Integer>() { 
          @Override 
          public Integer call(Integer v1, Integer v2) throws Exception {     
            return v1 + v2; 
          } 
        }); 

请注意,这里的isStopWords()isOnlyLetters()是两个用户定义的方法,将在本步骤末尾讨论。

步骤 7:对术语计数进行排序

通过应用两个转换sortByKey()mapToPair()对术语计数进行排序:

JavaPairRDD<String, Integer> termCountsSorted = termCounts 
        .mapToPair(new PairFunction<Tuple2<String, Integer>, Integer, String>() { 
          @Override 
          public Tuple2<Integer, String> call(Tuple2<String, Integer> t) throws Exception { 
            return t.swap(); 
          } 
        }).sortByKey().mapToPair(new PairFunction<Tuple2<Integer, String>, String, Integer>() { 
          @Override 
          public Tuple2<String, Integer> call(Tuple2<Integer, String> t) throws Exception { 
            return t.swap(); 
          } 
        }); 

步骤 8:创建词汇表

通过映射排序的术语计数创建词汇表 RDD。最后,打印键值对:

JavaRDD<String> vocabArray = termCountsSorted.map(new Function<Tuple2<String, Integer>, String>() { 
      @Override 
      public String call(Tuple2<String, Integer> v1) throws Exception { 
        return v1._1; 
      } 
    }); 
final Map<String, Long> vocab = vocabArray.zipWithIndex().collectAsMap(); 
    for (Map.Entry<String, Long> entry : vocab.entrySet()) { 
      System.out.println(entry.getKey() + "/" + entry.getValue()); 
    } 

让我们看一下图 10中显示的词汇表术语及其索引的屏幕截图:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00042.jpeg

图 10:词汇表术语及其索引。

步骤 9:从标记化的单词/术语中创建文档矩阵

通过映射我们在上一步中创建的词汇表,将文档矩阵创建为JavaPairRDD。之后,将 RDD 缓存在内存中以加快处理速度:

JavaPairRDD<Long, Vector> documents = JavaPairRDD 
        .fromJavaRDD(tokenized.zipWithIndex().map(new Function<Tuple2<String[], Long>, Tuple2<Long, Vector>>() { 
          @Override 
          public Tuple2<Long, Vector> call(Tuple2<String[], Long> v1) throws Exception { 
            String[] tokens = v1._1; 
            Map<Integer, Double> counts = new HashMap(); 

            for (String s : tokens) { 
              if (vocab.containsKey(s)) { 
                long idx = vocab.get(s); 
                int a = (int) idx; 
                if (counts.containsKey(a)) { 
                  counts.put(a, counts.get(a) + 1.0); 
                } else 
                  counts.put(a, 0.0); 
              } 
            } 
            ArrayList<Tuple2<Integer, Double>> ll = new ArrayList<>(); 
            ArrayList<Double> dd = new ArrayList<>(); 

            for (Map.Entry<Integer, Double> entry : counts.entrySet()) { 
              ll.add(new Tuple2<Integer, Double>(entry.getKey(), entry.getValue())); 
              dd.add(entry.getValue()); 
            } 

            return new Tuple2<Long, Vector>(v1._2, Vectors.sparse(vocab.size(), ll)); 
          } 
        })).cache(); 

步骤 10:训练 LDA 模型

使用步骤 9 中的文档矩阵训练 LDA 模型,并简要描述四个主题的 10 个主题术语。

请注意,这里我们使用了潜在狄利克雷分配LDA),这是最常用于文本挖掘的主题建模算法之一。我们可以使用更健壮的主题建模算法,如概率潜在情感分析pLSA)、Pachinko 分配模型PAM)或分层狄利克雷过程HDP)算法。但是,pLSA 存在过拟合问题。

另一方面,HDP 和 PAM 是更复杂的主题建模算法,用于复杂的文本挖掘,例如从高维文本数据或非结构化文档中挖掘主题。此外,迄今为止,Spark 仅实现了一种主题建模算法,即 LDA。因此,我们必须合理使用 LDA:

LDAModel ldaModel = new LDA().setK(4).setMaxIterations(10).run(documents); 
Tuple2<int[], double[]>[] topicDesces = ldaModel.describeTopics(10); 
int topicCount = topicDesces.length; 

请注意,为了使主题生成简单,我们将主题数量设置为 4,并迭代 LDA 10 次。另一个原因是,在下一节中,我们想展示如何通过它们的共同术语连接这四个主题。建议读者根据自己的需求更改值。

步骤 11:获取主题术语、索引、术语权重和每个主题的总和

从步骤 10 和步骤 8 中描述的词汇表和主题描述中获取这些统计信息:

for (int t = 0; t < topicCount; t++) { 
      Tuple2<int[], double[]> topic = topicDesces[t]; 
      System.out.println("      Topic: " + t); 
      int[] indices = topic._1(); 
      double[] values = topic._2(); 
      double sum = 0.0d; 
      int wordCount = indices.length; 
      System.out.println("Terms |\tIndex |\tWeight"); 
      System.out.println("------------------------"); 
      for (int w = 0; w < wordCount; w++) { 
        double prob = values[w]; 
        int vocabIndex = indices[w]; 
        String vocabKey = ""; 
        for (Map.Entry<String, Long> entry : vocab.entrySet()) { 
          if (entry.getValue() == vocabIndex) { 
            vocabKey = entry.getKey(); 
            break; 
          } } 
System.out.format("%s \t %d \t %f \n", vocabKey, vocabIndex, prob); 
        sum += prob; 
      } 
      System.out.println("--------------------"); 
      System.out.println("Sum:= " + sum); 
      System.out.println(); 
    }  } 

如果仔细查看前面的代码段,vocabKey表示相应的主题术语,vocabIndex是索引,prob表示主题中每个术语的权重。打印语句已用于格式化输出。现在让我们看一下描述四个主题的输出,以简化图 11

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00098.jpeg

图 11:描述四个主题。

正如我们在步骤 6中提到的,这里我们将展示如何开发isStopWord()方法。只需使用以下代码:

public static boolean isStopWord(String word) { 
    for (String s : stopwords) { 
      if (word.equals(s))   
        return true; 
    } 
    return false; 
  } 

isOnlyLetters()方法如下:

public static boolean isOnlyLetter(String word) { 
    for (Character ch : word.toCharArray()) { 
      if (!Character.isLetter(ch)) 
        return false; 
    } 
    return true; 
  } 

在下一节中,我们将介绍如何使用 Spark 的 GraphX API 解析和处理大规模图形数据,以从图 10中得到的主题数据中找到连接的组件。

图数据上的 ML 管道和半监督图形学习

由于大数据的泛滥,存在大量未标记的数据,以及非常少量的标记数据。正如已经讨论的那样,对这些数据进行标记和注释在计算上是昂贵的,并且是发现数据真正见解的障碍。此外,社交网络和媒体生产者图数据的增长也在规模上增长。这些数据努力开发实时和大规模的监督学习方法,可以利用输入分布中的信息。

基于图的半监督学习的想法是构建连接相似数据点或组件的图。这使得隐藏和未观察到的标签成为该图的节点上的随机变量。在这种类型的学习中,相似的数据点可以具有相似的标签,并且信息会从标记的数据点传播到其他数据点。类似的限制也限制了在典型处理和分析管道中表达许多重要步骤的能力。然而,基于图的学习并不适用于迭代扩散技术,例如 PageRank,因为许多计算方面是潜在的并且涉及到。

此外,由于 API 限制和不可用性,我们将不会详细讨论这种基于图的机器学习,并提供合适的示例。

然而,在本节中,我们将提供基于图的半监督应用程序开发,这基本上是我们在上一节中介绍的主题建模的延续。

GraphX 简介

GraphX 是 Spark 中用于图处理、图分析、图可视化和图并行计算的相对较新的组件。实际上,通过引入新的图抽象层,作为具有弹性分布式图计算的 Spark RDD 的原始计算方面得到了扩展,该图抽象层在图处理和存储中提供了弹性属性。

为了提供与图相关的计算,GraphX 公开了一组基本运算符,如子图、jointVerticesaggregateMessages。除此之外,它还继承了 GraphX 实现中 Pregel API 的优化变体。

此外,为了简化图分析任务,GraphX 正在丰富并增加一系列图算法和构建器。

在下一节中,我们将介绍如何使用 Spark 的 GraphX API 解析和处理大规模图数据,以从图 11中获得的主题数据中找到连接的组件。

使用 GraphX API 获取和解析图数据

在这个小节中,我们将向您展示如何使用 GraphX API 解析图数据,然后在下一个小节中描述图中的连接组件。由于 GraphX 中的 API 限制,我们无法在 Java 中提供相同的实现,但我们在 Scala 实现中做到了。

要运行以下源代码,请转到您的 Spark 分发并通过提供以下命令启动 Spark shell:

$ cd home/spark-2.0.0-bin-hadoop2.7/bin
$./spark-shell

然后 Spark shell 将可用于 Spark 会话。我们假设您的 Spark 分发保存在home/spark-2.0.0-bin-hadoop2.7路径中。请根据需要更改路径,以便运行 Spark shell。另外,请将图 11中显示的主题术语保存到单独的文本文件中,以便在继续以下步骤之前,您可以使用这些术语来分析作为图数据:

步骤 1:加载所需的包和 API

以下是加载所需包的代码:

package com.examples.graphs 
import org.apache.spark._ 
import org.apache.spark.graphx._ 
import org.apache.spark.rdd.RDD  

步骤 2:准备 Spark 环境

以下是准备 Spark 环境的代码:

val conf = new SparkConf().setAppName("GraphXDemo").setMaster("local[*]") 
val sc = new SparkContext(conf) 

步骤 3:解析主题术语并对其进行标记

以下代码说明了解析主题术语的方法:

val corpus: RDD[String] = sc.wholeTextFiles("home/ /topics/*.txt").map(_._2) 
val tokenized: RDD[Seq[String]] = corpus.map(_.toLowerCase.split("\\s")) 
tokenized.foreach { x => println(x) } 

步骤 4:创建文档的 RDD

创建文档的 RDD,格式为 RDD[(DocumentID,(nodeNamewordCount))]。例如,RDD[(1L,(Topic_0,4))]:

val nodes: RDD[(VertexId, (String, Long))] = tokenized.zipWithIndex().map{  
      case (tokens, id) => 
        val nodeName="Topic_"+id; 
        (id, (nodeName, tokens.size)) 

    } 
    nodes.collect().foreach{ 
      x =>  
        println(x._1+": ("+x._2._1+","+x._2._2+")")        
    } 

前面的打印方法生成了如图 12 所示的输出:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00126.jpeg

图 12:节点。

步骤 5:创建一个单词文档对

这是创建单词文档对的代码:

val wordPairs: RDD[(String, Long)] = 
      tokenized.zipWithIndex.flatMap { 
        case (tokens, id) => 
          val list = new Array(String, Long) 

          for (i <- 0 to tokens.length - 1) { 
            //tokens.foreach { term => 
            list(i) = (tokens(i), id) 
          } 
          list.toSeq 
      } 
    wordPairs.collect().foreach(x => println(x)) 
    println(wordPairs.count()) 

步骤 6:创建节点之间的图关系

以下代码显示了如何创建节点之间的图关系:

val relationships: RDD[Edge[String]] = wordPairs.groupByKey().flatMap{ 
      case(edge, nodes)=> 
        val nodesList = nodes.toArray 
        val list = new Array[Edge[String]](nodesList.length * nodesList.length) 
        if (nodesList.length>1){                   
          var count:Int=0; 
          for (i <- 0 to nodesList.length-2) { 
            for(j<-i+1 to nodesList.length-1){ 
         list(count) = new Edge(nodesList(i), nodesList(j), edge)  
         //list(count+1) = new Edge(nodesList(j), nodesList(i), edge) 
              count += 1; 
              //count += 2; 
            } 
          } 
        } 
        list.toSeq 
    }.filter { x => x!=null } 
    relationships.collect().foreach { x => println(x) } 

注意:如果要使图连接,但不是无向的,只需启用以下行:

list(count+1) = new Edge(nodesList(j), nodesList(i), edge) 

在以下行之后立即:

list(count) = new Edge(nodesList(i), nodesList(j), edge)  

将计数增加 2,即count += 2,以使更改保持一致。

步骤 7:初始化图

这里所示的代码显示了如何说明图:

val graph = Graph(nodes, relationships) 
println(graph.edges.count) 

查找连接的组件

根据spark.apache.org/docs/latest/graphx-programming-guide.html中的 API 文档,图的每个连接组件都是通过最低编号的顶点 ID 使用连接组件算法进行标记的。例如,在社交网络分析中,集群是由连接组件近似的。为了使这更加简单和快速,GraphX API 包含了算法的实现,即ConnectedComponents对象。

然而,目前没有用于查找连接组件的基于 Java、Python 或 R 的实现。因此,它允许我们通过 LDA 算法计算我们已经计算过的主题中的连接组件,如下所示:

val facts: RDD[String] = 
      graph.triplets.map(triplet => 
        triplet.srcAttr._1 + " contains the terms "" + triplet.attr + "" like as " + triplet.dstAttr._1) 
    facts.collect.foreach(println(_)) 

这应该产生如图 13所示的输出:

https://github.com/OpenDocCN/freelearn-ml-zh/raw/master/docs/lgscl-ml-spark/img/00085.jpeg

图 13:使用 GraphX 连接主题之间的关系。

如果仔细查看图 13中的输出,我们打印了一个三元组的关系。值得注意的是,除了支持顶点和边之外,Spark GraphX 还有三元组的概念。更具体地说,三元组是一个扩展 Edge 对象的对象。从图的角度来看,它存储了有关图中的边和相关顶点的信息。

摘要

在本章中,我们展示了如何从实时 Twitter 流数据和图数据开发大规模机器学习应用程序。我们讨论了社交网络和时间序列数据分析。此外,我们还使用 Spark MLlib 的基于内容的协同过滤算法开发了一个新兴的推荐应用程序,为用户推荐电影。然而,这些应用程序可以扩展和部署到其他用例中。

值得注意的是,当前的 Spark 实现包含了一些用于流或网络数据分析的算法。然而,我们希望 GraphX 在未来得到改进,并且不仅限于 Scala,还可以扩展到 Java、R 和 Python。在下一章中,我们将重点介绍如何与外部数据源交互,使 Spark 工作环境更加多样化。

基于径向基函数神经网络RBFNN的自适应滑模控制学习(Matlab代码实现)内容概要:本文介绍了基于径向基函数神经网络(RBFNN)的自适应滑模控制方法,并提供了相应的Matlab代码实现。该方法结合了RBF神经网络的非线性逼近能力和滑模控制的强鲁棒性,用于解决复杂系统的控制问题,尤其适用于存在不确定性和外部干扰的动态系统。文中详细阐述了控制算法的设计思路、RBFNN的结构与权重更新机制、滑模面的构建以及自适应律的推导过程,并通过Matlab仿真验证了所提方法的有效性和稳定性。此外,文档还列举了大量相关的科研方向和技术应用,涵盖智能优化算法、机器学习、电力系统、路径规划等多个领域,展示了该技术的广泛应用前景。; 适合人群:具备一定自动控制理论基础和Matlab编程能力的研究生、科研人员及工程技术人员,特别是从事智能控制、非线性系统控制及相关领域的研究人员; 使用场景及目标:①学习和掌握RBF神经网络与滑模控制相结合的自适应控制策略设计方法;②应用于电机控制、机器人轨迹跟踪、电力电子系统等存在模型不确定性或外界扰动的实际控制系统中,提升控制精度与鲁棒性; 阅读建议:建议读者结合提供的Matlab代码进行仿真实践,深入理解算法实现细节,同时可参考文中提及的相关技术方向拓展研究思路,注重理论分析与仿真验证相结合。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值