KNN简介

本文详细介绍了K近邻(kNN)算法的基本原理,包括距离向量的选择、k值的影响以及分类决策规则。通过实例演示了如何使用sklearn库实现二分类和鸢尾花预测,以及电影类型预测。重点讨论了kNN在实际问题中的应用和参数设置技巧。

机器学习流程:

  • 获取数据
  • 数据基本处理
  • 特征工程
  • 机器学 习
  • 模型评估

K近邻算法

 

简介: K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。 kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依 据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方 法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。

KNN的三个基本要素

  • 距离向量
    距离就是特征空间中两个实例点的相似程度的反映。常用的有:欧几里得距离、余弦值(cos), 相关度 (correlation), 曼哈顿距离 (Manhattan distance)等。
  • k值选择
    即在预测目标点时取几个临近的点来预测。
    K值得选取非常重要,因为k值选择过小容易受到噪声数据的影响,k值过大会产生用较大邻域中的训练实例进行预测,学习的近似误差会增大。
  • 分类决策规则
    即由输出实例的k个邻近的训练实例的多数表决输出实例的类。

KNN实现简单的正负数二分类问题

 

#导入训练模型 from sklearn.neighbors import KNeighborsClassifier #准备数据 x=[[1],[2],[3],[-1],[-3],[-10]] y=[['正数'],['正数'],['正数'],['负数'],['负数'],['负数']] #创建模型 clf = KNeighborsClassifier(n_neighbors=2) #训练模型 clf.fit(x,y) #预测其他值 print(clf.predict([[10]])) print(clf.predict([[-100]]))

预测结果

n_neighbors:

  • int类型参数,可选。默认为5。选择

KNN鸢尾花预测

 

#导入鸢尾花数据集 from sklearn.datasets import load_iris #导入训练模型 from sklearn.neighbors import KNeighborsClassifier #拆分数据集 from sklearn.model_selection import train_test_split #获取数据集 iris=load_iris() #提取数据集数据和特征 data=iris.data target=iris.target #拆分为 训练数据、测试数据、训练特征、测试特征 x_train,x_test,y_train,y_test=train_test_split(data,target,test_size=0.3) #创建模型 clf = KNeighborsClassifier(n_neighbors=6) #训练模型 clf.fit(x_train,y_train) clf.score(x_test,y_test)

测试模型的准确率:

train_test_split:

  • 参数列表,传入拆分数据集、拆分特征集
  • test_size 拆分多少数据用于测试 0.3:30%数据用于测试

KNN电影类型预测

 

import math #特征 1.动作镜头 2.拥抱镜头 3.搞笑镜头 4.类型 #训练数据集 mv = { '追龙1':[16,2,0,'动作片'], '人潮汹涌':[8,4,14,'喜剧片'], '飞驰人生':[3,4,16,'喜剧片'], '夏洛特烦恼':[0,4,18,'喜剧片'], '战狼':[18,0,0,'动作片'], '无双':[14,2,2,'动作片'], '大人物':[15,0,3,'动作片'], '从你的全世界路过':[0,7,0,'爱情片'], '再见前任3':[0,13,2,'爱情片'] } #预测影片特征 唐人街探案3 x=[23,3,17] #拆分数据和特征 date=[] target=[] for i in mv: date.append(mv[i][:-1]) target.append(mv[i][-1:]) #创建模型 clf=KNeighborsClassifier(n_neighbors=3) #训练数据 clf.fit(date,target) #获取预测类型并添加到字典中 tp=clf.predict([x])[0] x.append(tp) mv['唐人街探案3']=x mv

预测结果

### KNN算法简介 KNN算法(K-Nearest Neighbor Algorithm)是一种基础的机器学习方法,广泛应用于分类和回归任务中。其核心思想是基于距离度量寻找与目标样本最接近的K个邻居,并利用这些邻居的信息来进行预测[^1]。 在实际操作中,KNN算法通过计算新输入样本与已有数据集中每个样本的距离,找出最近的K个样本作为参考依据。对于分类问题,通常采用多数投票法决定类别归属;而对于回归问题,则取这K个样本的目标值均值作为预测结果[^2]。 #### 算法特点 - **优点**: - 实现简单直观,易于理解和实现。 - 对于多分类问题具有良好的适应能力。 - 能够有效处理非线性分布的数据集。 - **缺点**: - 计算开销较大,尤其当数据规模增大时,每次查询都需要遍历整个训练集并计算距离。 - 敏感于特征缩放以及噪声干扰,在预处理阶段需特别注意标准化等问题。 ### KNN算法的应用领域 由于其实用性和灵活性,KNN被成功运用于多个技术方向: 1. **图像识别** 图像可以通过像素矩阵形式表达,每张图片视为独立向量点.KNN通过对未知图象同数据库里存储的标准样例做对比分析从而判定所属种类.[^1] 2. **语音信号处理** 类似地,音频文件也能转换成频谱序列或者其他数字化描述方式之后交给KNN完成辨识工作. 3. **自然语言处理(NLP)** 文档主题建模或者情感倾向判断都可以借助此手段达成目的之一就是先提取关键词频率统计之类的量化指标再送入模型内部运算得到最终结论. 4. **个性化推荐引擎开发** 用户行为习惯记录下来形成庞大的历史资料库以后就可以运用类似的原理推测可能感兴趣的商品列表呈现出来供浏览选购考虑了. 以下是简单的Python代码演示如何使用scikit-learn库快速搭建一个基本版别的knn分类器实例: ```python from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # 加载鸢尾花数据集 data = load_iris() X, y = data.data, data.target # 划分训练集与测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # 数据标准化 scaler = StandardScaler() X_train_scaled = scaler.fit_transform(X_train) X_test_scaled = scaler.transform(X_test) # 初始化KNN分类器(k设为5) clf = KNeighborsClassifier(n_neighbors=5) clf.fit(X_train_scaled, y_train) # 进行预测 y_pred = clf.predict(X_test_scaled) # 输出准确率 print(f'Accuracy: {accuracy_score(y_test, y_pred):.2f}') ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值