KNN、k-近邻算法,python

本文介绍了一种简单的K近邻(KNN)算法实现方法,并通过Python代码详细展示了如何使用该算法进行分类。首先创建了一个包含四组数据的数据集,并定义了类别标签。接着实现了KNN算法的核心步骤:计算距离、排序、选择最近的邻居并统计类别频率,最终确定待分类项的类别。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

//time :2016-9-5

//blog__author:Inc

//Addr: 

原文来源:机器学习一书


实施Knn:

伪代码:

对未知类别属性的数据集中的每个点依次执行一下操作:

(1)计算已知类别数据集中的点与当前点之间的距离;

(2)按照距离递增顺序排序;

(3)选取与当前点距离最小的k个点;

(4)确定前k个点所在类别的出现频率;

(5)返回前k个点出现频率最高的类别作为当前点的预测分类。

from numpy import *
import operator


def createDataSet():
    group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    labels=['A','A','B','B']
    return group,labels


def classify0(inX,dataSet,labels,k):
dataSetSize=dataSet.shape[0] #得到第一维的维数
diffMat=tile(inX,(dataSetSize,1))-dataSet #
sqDiffMat=diffMat**2#
sqDistances=sqDiffMat.sum(axis=1)#
distances=sqDistances**0.5#欧式距离求当前点和已知类别点之间的距离
sortedDistIndicies=distances.argsort()#当前点与已知点距离排序,递增
classCount={}
for i in range(k):
   voteIlabel=labels[sortedDistIndicies[i]] #按顺序得到labels的A 或B
   classCount[voteIlabel]=classCount.get(voteIlabel,0)+1 #形式{‘B’:1}
sortedClassCount=sorted(classCount.items(),key=operator.itemgetter(1),
reverse=True)
return sortedClassCount[0][0]



测试:


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值