KNN算法Mapreduce实现
目录
算法简介:
邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。
mapreduce编程框架:
•MapReduce核心思想:分而治之
MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念"Map(映射)"和"Reduce(归约)",是它们的主要思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性。
现在准备好对于knn算法需要处理的两类数据:训练数据和测试数据。
knn需要计算每一条测试数据到训练数据的距离(多种度量方式),然后找出top k个最短距离,统计k个训练数据的类别将出现次数最多的类预测为测试样本的类别。算法的思想很简单,但是对于大数据环境下来说,knn的缺陷也比较明显。
§传统KNN算法性能的瓶颈
- 如果训练样本数据有n个,则KNN算法需要计算n次相似度,时间复杂度为O(n)
- 单机内存有限
- 单机计算资源也有限
如果能够将测试样本和每一训练样本的相似度的计算工作