最邻近规则分类(K-Nearest Neighbor)KNN算法

本文介绍了K-NearestNeighbor(KNN)算法的基本原理及其应用过程。KNN是一种基于实例的学习方法,通过计算未知实例与已知实例之间的距离来预测未知实例的类别。文章详细解释了KNN算法的具体步骤,并讨论了其优缺点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最邻近规则分类(K-Nearest Neighbor)KNN算法

1. 综述

 1.1 Cover和Hart在1968年提出了最初的邻近算法
 1.2 KNN是一种分类(classification)算法
 1.3 输入基于实例的学习(instance-based learning), 懒惰学习(lazy learning)(因为KNN就是一种属于随大流的思想,我离那个部落近我就属于哪里的人)

2. 例子:


表中未知电影属于哪种电影类型?
我们首先将原始表转化一下

转化后的表格如上图所示
计算G点与各个点的距离,G点离谁近,G点就属于哪一类,也就是G对应的电影属于哪种电影类型

3. 算法详述

 3.1 步骤:
 为了判断未知实例的类别,以所有已知类别的实例作为参照
 选择参数K
 计算未知实例与所有已知实例的距离
 选择最近K个已知实例
 根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别

 3.2 细节:
 关于K
 关于距离的衡量方法:
     3.2.1 Euclidean Distance 定义


其他距离衡量:余弦值(cos), 相关度 (correlation), 曼哈顿距离 (Manhattan distance)

 3.3 举例


图中绿色的原点属于哪一类呢?是属于红三角还是蓝方块
当k = 4时,可以看到在实心圆里面红的有三个,蓝的有一个,根据KNN随大流的特性,绿点当然就属于红三角阵营了
当k = 9时,可以看到在实心圆里面红的有六个,蓝的有三个,根据KNN墙头草的特性,绿点当然就属于红三角阵营了

4. 算法优缺点:

 4.1 算法优点
      简单
      易于理解
      容易实现
      通过对K的选择可具备丢噪音数据的健壮性

 4.2 算法缺点


需要大量空间储存所有已知实例
算法复杂度高(需要比较所有已知实例与要分类的实例)
当其样本分布不平衡时,比如其中一类样本过大(实例数量过多)占主导的时候,新的未知实例容易被归类为这个主导样本,因为这类样本实例的数量过大,但这个新的未知实例实际并木接近目标样本

5. 改进版本

  考虑距离,根据距离加上权重
  比如: 1/d (d: 距离)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值