使用Spark构建分类模型
在机器学习中,分类模型是非常重要的一部分。本文将介绍如何使用Spark MLlib构建分类模型,包括训练模型、评估性能、调整参数以及实现交叉验证等内容。
训练和评估朴素贝叶斯模型
首先,我们将训练一个新的朴素贝叶斯模型并评估其性能。代码如下:
val nbModelCats = NaiveBayes.train(dataNB)
val nbTotalCorrectCats = dataNB.map { point =>
if (nbModelCats.predict(point.features) == point.label) 1 else 0
}.sum
val nbAccuracyCats = nbTotalCorrectCats / numData
val nbPredictionsVsTrueCats = dataNB.map { point =>
(nbModelCats.predict(point.features), point.label)
}
val nbMetricsCats = new BinaryClassificationMetrics(nbPredictionsVsTrueCats)
val nbPrCats = nbMetricsCats.areaUnderPR
val nbRocCats = nbMetricsCats.areaUnderROC
println(f"${nbModelCats.getClass.getSimpleName}\nAccuracy: ${nbAccuracyCats * 100}%2.4f%%\nArea
超级会员免费看
订阅专栏 解锁全文
8456

被折叠的 条评论
为什么被折叠?



