KNN(k-nearest neighbors) K近邻算法深入

本文深入探讨KNN(K-Nearest Neighbors)算法,包括其三个核心要素:K值选择、距离度量和决策规则。介绍了暴力计算、K-D树和ball树等实现方式,并讨论了各种实现的性能和时间复杂度。此外,还提到了KNN在分类和回归任务中的应用及其在scikit-learn中的实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

K近邻法是机器学习中一种很基本的算法,可以用做分类和回归,主要的思想跟我们生活中近墨者黑,近朱者赤的思想雷同。例如我们看一个人人品的好坏只需要看与之相交的人的品格好坏。KNN算法分类和回归主要区别在于最后做预测时候的决策方式不同:分类时我们选取与之相近的K个样本采取多数表决法来判断类别,回归时我们选取K个样本的平均值来作为预测值。

1.KNN算法的三个要素

  • K值     对于K值的选取可根据我们的经验,然而有时候并不是那么的好,我们需要通过交叉验证来不断地调节K值,直到选择到满意的值。K选择较小的值,就会使用训练实例中较小领域的训练实例进行预测,训练的误差会减小,那也就意味这只有与之相近的样本才对预测结果影响,这样会使模型变得复杂,容易发生过拟合。K选择较小的值,就会使用训练实例中较大的训练实例进行预测,这样会使模型变得简单,模型的泛化能力增强,但同时也意味着与之相距较远的实例会对其预测结果产生影响,会使训练误差增大。
  • 距离度量     我们有很多种距离度量的方式,可推荐参考   距离度量 。standard Euclidean distance(标准欧式距离)是最常见的选择。
  • 决策规则     分类我们一般使用的是对数表决法,回归采用K个样本标签均值

2. KNN的实现

  • 暴力实现
  • 最简单的近邻搜索的实现涉及数据集中所有成对点之间距离的暴力计算: 对于 D 维度中的 N 个样本来说, 这个方法的复杂度是 O[D N^2]。 对于小数据样本,高效的暴力近邻搜索是非常有竞争力的。 然而,随着样本数 N 的增长,暴力方法很快变得不切实际了。
  •  
  •  K-D树

  • 为了解决效率低下的暴力计算方法,已经发明了大量的基于树的数据结构。总的来说, 这些结构试图通过有效地编码样本的 aggregate distance (聚合距离) 信息来减少所需的距离计算量。 基本思想是,若 

### K-近邻回归算法原理 K-近邻回归(K-Nearest Neighbors Regression, KNNR)是一种用于解决连续变量预测问题的方法。其核心思想是在给定一个新的输入样本时,找到训练集中与其最相似的 \( k \) 个样本,并利用这 \( k \) 个邻居的目标值来进行预测。 对于回归任务而言,目标是估计一个未知函数 \( f(x) \),使得预测值尽可能接近真实值。具体来说,在KNN回归中: - 首先计算待测样本到所有已知样本之间的距离; - 接着选出距离最小的前 \( k \) 个样本作为“最近邻”; - 最后根据选定的聚合方式(通常是取均值),得到最终的预测结果[^3]。 #### 距离度量方法 常用的几种距离度量有欧几里得距离、曼哈顿距离以及更一般的闵可夫斯基距离等形式。其中,默认情况下采用的是欧氏距离公式\[ d(p,q)=\sqrt{\sum_{i=1}^{n}(p_i-q_i)^2}\]。 #### 特征缩放的重要性 由于各维度间可能存在不同的数量级差异,因此建议在实施KNN之前对原始数据做标准化预处理操作,比如Min-Max Normalization 或者Z-score Standardization等技术,从而确保各个属性之间具有相同的影响程度。 ```python from sklearn.preprocessing import StandardScaler scaler = StandardScaler() X_train_scaled = scaler.fit_transform(X_train) X_test_scaled = scaler.transform(X_test) ``` #### 参数调优策略 \( k \) 值的选择至关重要,因为它直接影响到了模型的表现形式:较小的 \( k \) 易造成过拟合现象;而较大的 \( k \) 则容易引发欠拟合情况。为此可以通过网格搜索配合交叉验证的方式寻找最优解[^4]。 ```python from sklearn.model_selection import GridSearchCV param_grid = {'n_neighbors': range(1, 30)} grid_search = GridSearchCV(estimator=knn_regressor, param_grid=param_grid, cv=5, scoring='neg_mean_squared_error') grid_search.fit(X_train_scaled, y_train) best_k = grid_search.best_params_['n_neighbors'] print(f'Best n_neighbors value: {best_k}') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值