机器学习之KNN

KNN算法详解与实践

以下博客主要由两部分构成。一是理论讲解,而是代码实现(因为工程上使用KNN的频率不是很高,所以代码不是目的,一些代码中的技巧就显得很重要了)。

理论分析

首先KNN是什么?K-Nearest Neighbors (KNN)
以下的图片均来自‘贪心科技’,不是打广告,纯粹是尊重知识产权。
在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述问题一:为什么一般大家会选择奇数的K
因为便于投票分类
在这里插入图片描述决策边界决定了“线性分类器”或者“非线性分类器”
怎么选择合适的K,一般会用交叉验证法来选择合适的K。同时哟啊注意,不要用测试数据来调参。

特征缩放----线性归一化(Min-max Normalization)
X n e w = ( X − m i n ( X ) ) ÷ ( m a x ( X ) − m i n ( X ) ) X_{new} = (X-min(X))\div(max(X)-min(X)) Xnew=(Xmin(X))÷(max(X)min(X))

标准差标准化 (Z-score Normalization)
就是平均值、方差啥的
X n e w = ( X − m e a n ( X ) ) ÷ ( s t d ( X ) ) X_{new}=(X-mean(X))\div(std(X)) Xnew=(Xmean(X))÷(std(X))
KNN之所以不能广泛的工程应用的是因为KNN处理大数据量的任务困难,主要困难在耗时、K值选择影响太大。

代码

主要代码可以看我的github(来都来了,打颗星啊)
KNN

sklearn划分数据

sklearn划分数据
from sklearn.model_selection import train_test_split
#把数据分为训练数据和测试数据
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=2003)
'''
参数代表含义:
train_data:所要划分的样本特征集
train_target:所要划分的样本结果
test_size:样本占比,如果是整数的话就是样本的数量
random_state:是随机数的种子。
'''

统计非0数目

np.count_nonzero()

反函数 np.argsort

import numpy as np
x=np.array([1,4,3,-1,6,9])
y = x.argsort()
#y=array([3,0,2,1,4,5])
#我们发现argsort()函数是将x中的元素从小到大排列,提取其对应的index(索引),然后输出到y。例如:x[3]=-1最小,所以y[0]=3,x[5]=9最大,所以y[5]=5。

计数 count.most_common

from collections import Counter
#统计字符串
# top n问题
user_counter = Counter("abbafafpskaag")
print(user_counter.most_common(3)) #[('a', 5), ('b', 2), ('f', 2)]
print(user_counter['a']) # 5
#总结:most_common()函数用来实现Top n 功能.

生成随机样本、数据拼接

# 生成一些随机样本
n_points = 100
#依据指定的均值和协方差生成数据
X1 = np.random.multivariate_normal([1,50], [[1,0],[0,10]], n_points)
X2 = np.random.multivariate_normal([2,50], [[1,0],[0,10]], n_points)
#数据拼接
X = np.concatenate([X1,X2])

product

import itertools
a = (1, 2, 3)
b = ('A', 'B', 'C')
c = itertools.product(a,b)
for elem in c:
    print(elem)
(1, 'A')
(1, 'B')
(1, 'C')
(2, 'A')
(2, 'B')
(2, 'C')
(3, 'A')
(3, 'B')
(3, 'C')

还有一些生成热图的其他代码请看github

### kNN算法概述 kNN算法(K-Nearest Neighbors),也被称为K-最邻近算法,是一种基本的机器学习算法,适用于分类回归任务。此算法的核心在于利用特征空间中的相似度来决定未知样本所属类别。具体来说,在给定含有已知类别的训练集情况下,对于每一个待预测的新样本,计算它与所有训练样本之间的距离,并选取距离最小的前K个邻居作为参考对象;最终依据这些邻居们的类别标签,采用投票机制或者加权平均的方式得出目标样本应归属于哪一类[^2]。 ### 数据预处理的重要性 在实际操作过程中,准备高质量的数据至关重要。特别是在执行像手写数字识别这样的复杂任务时,不仅需要精心挑选合适的数据源,还需要设计有效的函数把原始图片转化为适合输入模型的形式,从而提高后续运用K近邻算法进行模式匹配的成功概率[^4]。 ### Python实现示例 下面给出一段简单的Python代码片段用来演示如何构建并评估一个基础版本的kNN分类器: ```python from collections import Counter import numpy as np def create_dataset(): group = np.array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]]) labels = ['A', 'A', 'B', 'B'] return group, labels def classify_knn(inX, dataset, labels, k): dataSetSize = dataset.shape[0] diffMat = np.tile(inX, (dataSetSize, 1)) - dataset sqDiffMat = diffMat ** 2 sqDistances = sqDiffMat.sum(axis=1) distances = sqDistances ** 0.5 sortedDistIndicies = distances.argsort() classCount = {} for i in range(k): voteIlabel = labels[sortedDistIndicies[i]] classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1 sortedClassCount = sorted(classCount.items(), key=lambda item:item[1], reverse=True) return sortedClassCount[0][0] group, labels = create_dataset() test_data_point = [0, 0] predicted_label = classify_knn(test_data_point, group, labels, 3) print(f"The predicted label of {test_data_point} is: {predicted_label}") ``` 上述程序定义了一个小型二维点集合及其对应的类别标记,并实现了`classify_knn()` 函数用于接收新的观测值 `inX`, 训练数据集 `dataset` 及其关联的真实标签 `labels` 参数 `k`. 此外还展示了怎样调用这个自定义的方法完成一次具体的预测过程[^3]. ### 结果分析 为了验证模型性能的好坏程度,通常会在独立于训练阶段之外的一组测试样例上运行该算法,并统计误判次数占总检验数量的比例即误差率(error rate),以此衡量系统的准确性水平.
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值