机器学习——KNN

本文深入讲解了KNN算法,这是首个用于分类的机器学习方法。文章详细解释了KNN的工作原理,包括如何通过计算距离找到最近邻数据点,以及如何使用这些数据点的分类标签对新数据进行分类。此外,还提供了KNN算法的Python实现代码,通过实例演示了如何使用KNN对电影类型进行分类。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一. KNN

  1. 第一个用来进行分类的机器学习算法
  2. KNN 的工作原理

存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。

输入本有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取出样本集中特征最相似数据(最近邻)的分类标签。

一般来说,我们只选择样本数据集中前k个最相似的数据,通常k是不大于20的证书

最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类

如何求距离:
二维空间: 在这里插入图片描述

多维空间:
在这里插入图片描述
在这里插入图片描述

eg:
电影的分类
在这里插入图片描述

在这里插入图片描述

与未知电影的距离
在这里插入图片描述
得到这个距离之后,我们就可以选择前K 个来判断未知电影的类型
实验代码如下:

from numpy import *


def createDataSet():
    group = array([[3, 104], [2, 100], [1, 81], [101, 10], [99, 5], [98, 2]])
    labels = ['Roman', 'Roman', 'Roman', 'Action', 'Action', 'Action']
    return group, labels


def classify(inX, dataSet, labels, k):
    # inX : 判断需要判断电影的类型
    # dataSet : 已有数据的集合,每一句话的字典形式表达
    # labels : 已有数据标签的集合

    # shape : 输出数组的格式 6* 2 的数组
    dataSetSize = dataSet.shape[0]  # [6,2]
    print("dataSetsize: ", dataSetSize)
    # tile : 复制数组   tile:[0,1]   ---> [3,1]  : [0,1], [0,1],[0,1]   [18,90] ---> [6,1]    [18,90] - [3,104]
    diffMat = tile(inX, (dataSetSize, 1)) - dataSet  # (x2 - x1)
    print("diffMat: ", diffMat)
    sqDiffMat = diffMat ** 2  # (x2-x1) **2
    print("sqDiffMat: ", sqDiffMat)
    # axis 是需要加和的维度
    # axis =1 : 行加和  ;axis =0 : 列加和
    sqDistances = sqDiffMat.sum(axis=1)
    print("sqDistances :", sqDistances)
    distances = sqDistances ** 0.5
    print("distances: ", distances)
    # sortedDistIndicies: 是一个排好序的index
    sortDistIndicies = distances.argsort()
    print("sortedDistIndicies: ", sortDistIndicies)
    Classcount = {}
    for i in range(k):
        voteIlabel = labels[sortDistIndicies[i]]
        print("voteIlabel : ", voteIlabel)
        # get 返回对应的key 和  value 值
        Classcount[voteIlabel] = Classcount.get(voteIlabel, 0) + 1
        print("Classcount:", Classcount)
    sortedClasscount = sorted(Classcount.items(), key=lambda d: float(d[1]), reverse=True)
    print("sortedClasscount : ", sortedClasscount)
    return sortedClasscount


if __name__ == '__main__':
    group, labels = createDataSet()
    # group : 已有的数据     3 : k  : 判断几个离他最近的个数
    result = classify([18, 90], group, labels, 3)

运行结果为:
在这里插入图片描述

### KNN算法在机器学习中的实现与应用 #### 一、KNN算法简介 K近邻(K-Nearest Neighbor, KNN)是一种基本分类与回归方法。该算法的核心思想在于通过计算待测样本与训练集中各个样本的距离,选取距离最小的前K个邻居,并依据这些邻居的信息来进行决策。对于分类问题而言,则是根据多数表决原则决定新实例所属类别;而对于回归问题来说,则通常采用这K个最接近的数据点的目标属性平均值作为预测结果。 #### 二、R语言下的具体实践案例 针对鸢尾花数据集的应用展示了如何利用基础函数完成整个流程而无需依赖额外包的支持[^2]。在这个例子中,通过对不同特征维度间欧氏距离或其他度量方式的选择实现了对未知样本的有效识别。这种做法不仅有助于理解原理本身,同时也锻炼了编程技巧以及解决实际问题的能力。 ```r # 加载必要的库并读入数据 library(ggplot2) data(iris) head(iris) # 数据预处理... set.seed(1234) trainIndex <- sample(seq_len(nrow(iris)), size = floor(.7 * nrow(iris))) trainingData <- iris[trainIndex, ] testingData <- iris[-trainIndex, ] # 定义knn函数用于后续调用 knnPredict <- function(trainSet, testInstance, labels, k){ distances <- sqrt(rowSums((t(t(trainSet[,1:4]) - as.numeric(testInstance)))^2)) sortedDistIndices <- order(distances)[1:k] classCounts <- table(labels[sortedDistIndices]) return(names(which.max(classCounts))) } predictions <- sapply(as.matrix(testingData[,1:4]), knnPredict, trainSet=as.matrix(trainingData[,1:4]), labels=trainingData$Species,k=3L) confusionMatrix <- table(predictions,factor(testingData$Species)) print(confusionMatrix) ``` 上述代码片段演示了一个完整的基于自定义逻辑而非第三方工具包构建KNN模型的过程,包括但不限于数据分割、相似性测量及最终评估等方面的工作。 #### 三、应用场景探讨 尽管存在诸如计算复杂度较高等局限之处,但在某些特定条件下依然能够展现出独特价值: - **低维空间**:当输入变量数量较少时,性能表现良好; - **多模态分布**:可以很好地适应具有多个峰值的概率密度函数所描述的现象; - **快速原型开发**:由于易于理解和编码特性,在初期探索阶段可作为一种高效手段迅速验证想法可行性[^3]。 综上所述,虽然与其他更先进的技术相比可能显得不够先进,但凭借其实现简便性和灵活性依旧占据着不可替代的地位。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值