机器学习实战--最简单算法--KNN算法(k-近邻算法)

本文介绍了k-近邻算法(knn)的基本原理及其实现过程,包括数据预处理、距离计算、类别选择等步骤,并提供了Python代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考书籍--《机器学习实战》

k-近邻算法(一下简称knn算法)是机器学习中最简单的算法,通过计算待预测分类点到已知类别点之间的距离,通过距离的远近来分类带预测分类点,越近表示这两种点的类别越近。

优点:精度高,对异常值不敏感

缺点:计算复杂度高(不适合数据量较大的分类),空间复杂度较高

knn算法属于有监督学习算法,每次对数据分类时都要对所有的数据进行计算,所以有计算复杂度的问题。

待测数据标签类别的选定:

1、指定参考点距离待测点的最近的个数n

2、对n中标签类别进行统计,哪类标签占的比重多,待分类的数据就属于哪一类别。


思路:

1、数据样本A 对应的标签B 距离最近点个数为n

2、带预测的数据c

3、遍历c到A中每个点的距离,计算结果记录为E。

4、对距离结果E经行从小到大的排序。

5、取结果E中前n个记录,对其进行类别统计。

6、对上一步骤5的进行分析,哪一类别比重大,则该待测数据就属于哪一类别。


Python代码实现:

from numpy import *
import operator

test = [0,0]
group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
labels = ["A", "A", "B", "B"]
n = 2

dataSetSize = group.shape[0]
diffMat = tile(test,(dataSetSize,1)) - group

#distances
sqDifffMat = diffMat**2
sqDistances = sqDifffMat.sum(axis=1)
distance = sqDistances**0.5

#sort
sortedDistIndicies = distance.argsort()
classCount = {}
for i in range(3):
    classCount[labels[sortedDistIndicies[i]]] = classCount.get(labels[sortedDistIndicies[i]], 0) + 1

sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
print "Type is :", sortedClassCount[0][0]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值