机器学习笔记kNN实战一 改进约会网站配对效果

本文介绍了k-近邻算法在改进约会网站配对效果的应用。通过比较新用户特征与训练样本集中的特征,利用最近邻原则进行分类。当K值变化时,分类结果可能不同。kNN算法精度高,对异常值不敏感,但计算和空间复杂度较高,适用于数值型和标称型数据。示例中展示了如何通过欧式距离公式确定样本间的距离。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

k-近邻算法采用测量不同特征值之间的距离方法进行分类
工作原理:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最邻近)的分类标签。
如图所示:
如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。
如果K=5,绿色圆点的最近的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类
在这里插入图片描述
优点:精度高,对异常值不敏感,无数据输入假定
缺点:计算复杂度高,空间复杂度高
适用数据范围:数值型和标称型
计算公式:欧式距离公式
在这里插入图片描述

import operator
from numpy import *
import matplotlib
import matplotlib.pyplot as plt


def createDateSet():
    group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    labels=['A','A','B','B']
    return group,labels
group,labels=createDateSet()

def classify0(inX,dataSet,labels,k):  #分类函数
    dataSetSize=dataSet.shape[0]
    diffMat=tile(inX,(dataSetSi
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值