机器学习实战系列2——KNN(近邻)算法

本文介绍KNN算法原理,包括距离计算、分类决策等,并通过示例代码展示算法实现过程。适用于数值与标称型数据,具有高精度和对异常值不敏感的优点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

定义

采用不同特征值之间的距离方法进行分类
优点:精度高、对异常值不敏感、无数据输入假定
缺点:计算复杂度高、空间复杂度高
适用:数值型与标称型数据

算法概述

给定一个训练集(其中的实例类别已定),对新的输入实例(无标签),比较新实例特征与样本集中的特征,在训练数据集中找到与该实例中最邻近的K个实例,这K个实例的多数属于那个类,就把该输入实例分为这个类(K<=20)
输入:实例的特征向量
输出:实例的类别
三要素:K值的选择,距离度量、分类决策规则——对特征空间的划分
1.K值的选择——交叉验证法。较小、较大分别影响,近似误差、估计误差
2.距离度量
3.分类决策规则——多数表决

伪代码

对未知类别属性的数据集中的每个点依次执行以下操作

  1. 计算已知类别数据集中的点与当前点之间的距离(特征值之间的距离)
  2. 按照距离递增次序排序
  3. 选取与当前点距离最小的前K个点
  4. 确定前K个点所在类别出现的频率
  5. 返回前K个点出现频率最高的类别作为当前点的预测分类

python代码示例(将每组数据划到某个类中)

场景1:电影分类

通过统计电影中打斗次数与接吻次数来区分动作与爱情片

场景2:改进约会网站

3个特征

场景3:改进手写数字识别系统——在图像上应用KNN

32*32黑白图像转换成1024的向量

'''
Created on Sep 20, 2018
kNN: k Nearest Neighbors

Input:     inX: vector to compare to existing dataset (1xN)
            dataSet: size m data set of known vectors (NxM)
            labels: data set labels (1xM vector)
            k: number of neighbors to use for comparison (should be an odd number)
            
Output:     the most popular class label

'''
from numpy import *
import operator  #运算符模块
from os import listdir
import matplotlib
import matplotlib.pyplot as plt


# 创建数据集与标签
def createDataSet(): 
    group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) #矩阵
    labels = ['A','A','B','B'] #元素个数与矩阵行数一致
    return group, labels

#kNN分类器
def classify0(inX, dataSet, labels, k):#inX待分类数据集
    dataSetSize = dataSet.shape[0] #4行,每行是个样本
    #使用欧式距离计算距离
    diffMat = tile(inX, (dataSetSize,1)) - dataSet #tile()函数是将待分类数据集重复几行几次,与样本集矩阵一样大小,方便相减
    sqDiffMat = diffMat**2 #取平方
    sqDistances = sqDiffMat.sum(axis=1) #按列求和
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort() #argsort()将distances 中的元素从小到大排列,并返回其对应的索引
    classCount={}          #字典,前k个标签及次数
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]] #返回距离最近的K的标签
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1 #如果当前标签不存在,则创建并设置值为0;存在就加1;// Python 字典(Dictionary) get() 函数返回指定键的值,如果值不在字典中返回默认值
    sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
    #items() 函数以列表返回可遍历的(键, 值) 元组数组
    #operator模块提供的itemgetter函数用于获取对象的哪些维的数据
    #reverse=True降序排列,默认为升序排列
    #sortedClassCount是个列表,元素为元组(标签,次数)
    return sortedClassCount[0][0] #返回频率最高的元素的标签,第一个元组的第一个元素

#处理数据的输入格式问题
#读取文件,返回训练样本矩阵和类别标签向量
def file2matrix(filename):
    fr = open(filename)
    numberOfLines = len(fr.readlines())         #get the number of lines in the file
    returnMat = zeros((numberOfLines,3))        #prepare matrix to return
    classLabelVector = []                       #prepare labels return   
    fr = open(filename)
    index = 0
    for line in fr.readlines():
        line = line.strip()
        listFromLine = line.split('\t')
        returnMat[index,:] = listFromLine[0:3] #左闭右开
        classLabelVector.append(int(listFromLine[-1]))
        index += 1
    return returnMat,classLabelVector




#不同特征值取值范围幅度大,数值归一化,将取值范围归一化到0到1或者-1到1之间
#newvalue=(oldvalue-min)/(max-min)    
    
def autoNorm(dataSet):
    minVals = dataSet.min(0) #返回每列的最小值与最大值
    maxVals = dataSet.max(0)
    ranges = maxVals - minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    normDataSet = dataSet - tile(minVals, (m,1))
    normDataSet = normDataSet/tile(ranges, (m,1))   #element wise divide
    return normDataSet, ranges, minVals


#测试算法:应用错误率来评估分类器的性能// 针对约会网站的测试代码   
def datingClassTest():
    hoRatio = 0.10      #hold out 10%
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')       #load data setfrom file
    normdatingDataMat, ranges, minVals = autoNorm(datingDataMat)
    m = normdatingDataMat.shape[0]
    numTestVecs = int(m*hoRatio)
    errorCount = 0.0 #错误计数器变量
    for i in range(numTestVecs):
        classifierResult = classify0(normdatingDataMat[i,:],normdatingDataMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
        print("the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i]))
        if (classifierResult != datingLabels[i]): errorCount += 1.0
    print("the total error rate is: %f" % (errorCount/float(numTestVecs)))
    print(errorCount)
    
    
#约会网站实际应用_预测
def classifyPerson():
    resultList=['not at all','in small doses','in large doses']
    
    ffMiles=float(input("frequent flier miles earned per year?"))
    percentTats=float(input("percentage of time spent  playing video games?"))
    iceCream=float(input("liters of ice cream consumed per year?"))
    datingDataMat,datingLabels=file2matrix("datingTestSet2.txt")
    normMat,ranges,minVals=autoNorm(datingDataMat)
    inArr=array([ffMiles,percentTats,iceCream])
    classifierResult=classify0((inArr-minVals)/ranges,normMat,datingLabels,3)
    print("you will probabaly like this person: ",resultList[classifierResult-1])
    
    
 
#手写数字识别
#将图像格式化处理为一个向量32*32变成1*1024的向量

def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0,32*i+j] = int(lineStr[j])
    return returnVect

#手写数字识别系统的测试代码
def handwritingClassTest():
    hwLabels = []
    trainingFileList = listdir(r'I:\study\nlp\机器学习实战源码\MLiA_SourceCode\machinelearninginaction\Ch02\digits\trainingDigits')           #load the training set
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]     #take off .txt 取文本名
        classNumStr = int(fileStr.split('_')[0]) #确定标签
        hwLabels.append(classNumStr)
        trainingMat[i,:] = img2vector('I:/study/nlp/机器学习实战源码/MLiA_SourceCode/machinelearninginaction/Ch02/digits/trainingDigits/%s' % fileNameStr)
    testFileList = listdir(r'I:\study\nlp\机器学习实战源码\MLiA_SourceCode\machinelearninginaction\Ch02\digits\testDigits')        #iterate through the test set
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]     #take off .txt
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('I:/study/nlp/机器学习实战源码/MLiA_SourceCode/machinelearninginaction/Ch02/digits/testDigits/%s' % fileNameStr)
        classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
        print("the classifier came back with: %d, the real answer is: %d" % (classifierResult, classNumStr))
        if (classifierResult != classNumStr): errorCount += 1.0
    print("\nthe total number of errors is: %d" % errorCount)
    print("\nthe total error rate is: %f" % (errorCount/float(mTest)))


if __name__ == '__main__':
    group, labels=createDataSet() 
    sortedClassCount=classify0([0,0], group, labels, 4)
    
    datingDataMat,datingLabels=file2matrix(r'I:\study\nlp\机器学习实战源码\MLiA_SourceCode\machinelearninginaction\Ch02\datingTestSet2.txt')
   
    #分析约会数据:使用matplotlib创建散点图
    fig=plt.figure()
    ax=fig.add_subplot(111)
    #不同兴趣爱好的人类别也不一样
    ax.scatter(datingDataMat[:,0],datingDataMat[:,1],15.0*array(datingLabels),15.0*array(datingLabels)) #使用约会数据的第1列与第2列数据
    plt.show()
    
    normdatingDataSet, ranges, minVals=autoNorm(datingDataMat)
    
    datingClassTest() #约会网站性能
    
    classifyPerson()  #约会网站测试
    
    
    testVector=img2vector(r'I:\study\nlp\机器学习实战源码\MLiA_SourceCode\machinelearninginaction\Ch02\digits\trainingDigits\2_0.txt')
    #图片转换为向量
   
    handwritingClassTest() #手写数字测试

#总结
1.先将训练集变成矩阵形式,一行代表一个样本(创建0矩阵,再往里填充)
标签变成列表的形式
2.KNN针对大数据集,存储空间大,需计算新样例与所有样本的距离,耗时;另外,无法给出任何数据的基础结构信息(含有什么特征)——概率测量方法可以解决这个问题(决策树)

基于数据挖掘的音乐推荐系统设计与实现 需要一个代码说明,不需要论文 采用python语言,django框架,mysql数据库开发 编程环境:pycharm,mysql8.0 系统分为前台+后台模式开发 网站前台: 用户注册, 登录 搜索音乐,音乐欣赏(可以在线进行播放) 用户登陆时选择相关感兴趣的音乐风格 音乐收藏 音乐推荐算法:(重点) 本课题需要大量用户行为(如播放记录、收藏列表)、音乐特征(如音频特征、歌曲元数据)等数据 (1)根据用户之间相似性或关联性,给一个用户推荐与其相似或有关联的其他用户所感兴趣的音乐; (2)根据音乐之间的相似性或关联性,给一个用户推荐与其感兴趣的音乐相似或有关联的其他音乐。 基于用户的推荐和基于物品的推荐 其中基于用户的推荐是基于用户的相似度找出相似相似用户,然后向目标用户推荐其相似用户喜欢的东西(和你类似的人也喜欢**东西); 而基于物品的推荐是基于物品的相似度找出相似的物品做推荐(喜欢该音乐的人还喜欢了**音乐); 管理员 管理员信息管理 注册用户管理,审核 音乐爬虫(爬虫方式爬取网站音乐数据) 音乐信息管理(上传歌曲MP3,以便前台播放) 音乐收藏管理 用户 用户资料修改 我的音乐收藏 完整前后端源码,部署后可正常运行! 环境说明 开发语言:python后端 python版本:3.7 数据库:mysql 5.7+ 数据库工具:Navicat11+ 开发软件:pycharm
MPU6050是一款广泛应用在无人机、机器人和运动设备中的六轴姿态传感器,它集成了三轴陀螺仪和三轴加速度计。这款传感器能够实时监测并提供设备的角速度和线性加速度数据,对于理解物体的动态运动状态至关重要。在Arduino平台上,通过特定的库文件可以方便地与MPU6050进行通信,获取并解析传感器数据。 `MPU6050.cpp`和`MPU6050.h`是Arduino库的关键组成部分。`MPU6050.h`是头文件,包含了定义传感器接口和函数声明。它定义了类`MPU6050`,该类包含了初始化传感器、读取数据等方法。例如,`begin()`函数用于设置传感器的工作模式和I2C地址,`getAcceleration()`和`getGyroscope()`则分别用于获取加速度和角速度数据。 在Arduino项目中,首先需要包含`MPU6050.h`头文件,然后创建`MPU6050`对象,并调用`begin()`函数初始化传感器。之后,可以通过循环调用`getAcceleration()`和`getGyroscope()`来不断更新传感器读数。为了处理这些原始数据,通常还需要进行校准和滤波,以消除噪声和漂移。 I2C通信协议是MPU6050与Arduino交互的基础,它是一种低引脚数的串行通信协议,允许多个设备共享一对数据线。Arduino板上的Wire库提供了I2C通信的底层支持,使得用户无需深入了解通信细节,就能方便地与MPU6050交互。 MPU6050传感器的数据包括加速度(X、Y、Z轴)和角速度(同样为X、Y、Z轴)。加速度数据可以用来计算物体的静态位置和动态运动,而角速度数据则能反映物体转动的速度。结合这两个数据,可以进一步计算出物体的姿态(如角度和角速度变化)。 在嵌入式开发领域,特别是使用STM32微控制器时,也可以找到类似的库来驱动MPU6050。STM32通常具有更强大的处理能力和更多的GPIO口,可以实现更复杂的控制算法。然而,基本的传感器操作流程和数据处理原理与Arduino平台相似。 在实际应用中,除了基本的传感器读取,还可能涉及到温度补偿、低功耗模式设置、DMP(数字运动处理器)功能的利用等高级特性。DMP可以帮助处理传感器数据,实现更高级的运动估计,减轻主控制器的计算负担。 MPU6050是一个强大的六轴传感器,广泛应用于各种需要实时运动追踪的项目中。通过 Arduino 或 STM32 的库文件,开发者可以轻松地与传感器交互,获取并处理数据,实现各种创新应用。博客和其他开源资源是学习和解决问题的重要途径,通过这些资源,开发者可以获得关于MPU6050的详细信息和实践指南
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值