K近邻算法

本文深入讲解了KNN(K近邻)算法的原理与应用。KNN算法通过计算待测样本与训练集中每个样本的距离,选取最近的K个样本,根据这些样本的类别来预测待测样本的类别。文章详细介绍了算法的实现过程,包括欧式距离计算、距离排序及类别统计,并讨论了算法的优缺点。KNN算法适用于数值型和标称型数据,可用于海伦约会数据预测和手写数字分类。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

KNN K近邻算法
(1)算法思路
计算待测样本与实际每一个样本之间的欧式距离(一般都是转换为向量,二位图像也是转化为一维向量)
选取距离最小的k个样本
统计K个样本的所属类别,出现频率最高的类别即为待测样本的类别

算法正确率影响参数, 测试集和样本数据的比重,以及K的选取

def classify0(inX,dataSet,labels,k):
    dataSetSize= dataSet.shape[0]  # type: object # shape[0]获取行 shape[1] 获取列
    diffMat=tile(inX,(dataSetSize,1))-dataSet #tile类似于matlab中的repmat,
    #1 计算欧式距离
    sqDiffMat=diffMat**2
    sqDistance=sqDiffMat.sum(axis=1)
    distance=sqDistance**0.5
    sortedDistance=distance.argsort()#增序排序
    classCount={}
    for i in range(k):
        #获取类别
        voteIlabel=labels[sortedDistance[i]]
        # 字典的get方法,查找classCount中是否包含voteIlabel,是则返回该值,不是则返回defValue,这里是0
        # 其实这也就是计算K临近点中出现的类别的频率,以次数体现
        classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
        # 对字典中的类别出现次数进行排序,classCount中存储的事 key-value,其中key就是label,value就是出现的次数
        # 所以key=operator.itemgetter(1)选中的事value,也就是对次数进行排序
    sortedClassCount=sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True)
    # sortedClassCount[0][0]也就是排序后的次数最大的那个label
    return sortedClassCount[0][0]

(2)算法应用实例
数值型、标称型。
海伦约会数据预测
可以用来对手写的数字进行分类,但是对于图像运算量太大
(3)算法优缺点
缺点:基于实例的学习,必须保存全部数据集,占用存储空间大
非常耗时:因为必须对数据集中的每一个数据,计算距离。
无法给出任何数据的基础结构信息,无法知晓平均实例样本和典型实例样本具有的什么特征
优点:精度高,对异常值不敏感

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值