机器学习——KNN算法(k近邻算法)

本文详细介绍了KNN(K-Nearest Neighbor)算法,包括其工作原理、优缺点和Python代码实现。通过电影分类的例子阐述了KNN的分类过程,并提供了鸢尾花品种预测和改进约会网站匹配的实例,展示了KNN在实际问题中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一 KNN算法

1. KNN算法简介

  KNN(K-Nearest Neighbor)工作原理:存在一个样本数据集合,也称为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类对应的关系。输入没有标签的数据后,将新数据中的每个特征与样本集中数据对应的特征进行比较,提取出样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k近邻算法中k的出处,通常k是不大于20的整数。最后选择k个最相似数据中出现次数最多的分类作为新数据的分类。

  说明:KNN没有显示的训练过程,它是“懒惰学习”的代表,它在训练阶段只是把数据保存下来,训练时间开销为0,等收到测试样本后进行处理。

  举个栗子:以电影分类作为例子,电影题材可分为爱情片,动作片等,那么爱情片有哪些特征?动作片有哪些特征呢?也就是说给定一部电影,怎么进行分类?这里假定将电影分为爱情片和动作片两类,如果一部电影中接吻镜头很多,打斗镜头较少,显然是属于爱情片,反之为动作片。有人曾根据电影中打斗动作和接吻动作数量进行评估,数据如下:

电影名称

打斗镜头

接吻镜头

电影类别

Califoria Man

3

104

爱情片

Beautigul Woman

1

81

爱情片

Kevin Longblade

101

10

动作片

Amped II

98

2

动作片

  给定一部电影数据(18,90)打斗镜头18个,接吻镜头90个,如何知道它是什么类型的呢?KNN是这样做的,首先计算未知电影与样本集中其他电影的距离(这里使用欧式距离),数据如下:

电影名称

与未知分类电影的距离

Califoria Man

20.5

Beautigul Woman

19.2

Kevin Longblade

115.3

Amped II

118.9

  现在我们按照距离的递增顺序排序,可以找到k个距离最近的电影,加入k=3,那么来看排序的前3个电影的类别,爱情片,爱情片,动作片,下面来进行投票,这部未知的电影爱情片2票,动作片1票,那么我们就认为这部电影属于爱情片。 

2. KNN算法优缺点

  优点:精度高,对异常值不敏感、无数据输入假定

  缺点:计算复杂度高、空间复杂度高

3. KNN算法python代码实现

  实现步骤:

    (1)计算距离

    (2)选择距离最小的k个点

    (3)排序

  代码实现:

import numpy as np
import operator


def classfy(int_x, data_set, labels, k=3):
    """
    kNN(k=3) 分类器
    :param int_x: 目标特征向量
    :param data_set: 数据集
    :param labels: 分类向量
    :param k: k 值
    :return: 距离
    """
    data = np.array(data_set)
    doint = np.array(int_x)
    # 计算距离(欧氏距离公式)
    distance = np.sum((data - doint) ** 2, axis=1) ** 0.5
    # 距离排序
    # distance = np.sort(distance)
    distances = distance.argsort()  # 排序后显示在原列表的下标
    class_count = {}
    # 选择距离最小的N个点
    for i in range(k):
        # 获取labels里前K个元素([1,0,3,2],取前三个)
        vote_i_label = labels[distances[i]]
        # 统计各元素个数
        class_count[vote_i_label] = class_count.get(vote_i_label, 0) + 1
        # dict.get(key,default=None),字典的get()方法,返回指定键的值,如果值不在字典中返回默认值。

    # 按个数排序
    sorted_class_count = sorted(class_count.items(), key=operator.itemgetter(1), reverse=True)
    # key=operator.itemgetter(1)根据字典的值进行排序
    # key=operator.itemgetter(0)根据字典的键进行排序
    # reverse降序排序字典
    return sorted_class_count[0][0]

二 KNN算法实例

1. 鸢尾花品种预测

 普通实现:

 

# 导入相应的包
import random
import operator
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt


def classify(int_x, data_set, labels, k=3):
    """
    kNN(k=3) 分类器
    :param int_x: 目标特征向量
    :param data_set: 数据集
    :param labels: 分类向量
    :param k: k 值
    :return: 距离
    """
    data = np.array(data_set)
    doint = np.array(int_x)
    # 计算距离(欧氏距离公式)
    distance = np.sum((data - doint) ** 2, axis=1) ** 0.5
    # 距离排序
    # distance = np.sort(distance)
    distances = distance.argsort()  # 排序后显示在原列表的下标
    class_count = {}
    # 选择距离最小的N个点
    for i in range(k):
        # 获取labels里前K个元素([1,0,3,2],取前三个)
        vote_i_label = labels[distances[i]]
        # 统计各元素个数
        class_count[vote_i_label] = class_count.get(vote_i_label, 0) + 1
        # dict.get(key,default=None),字典的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值