机器学习k近邻算法k值的选择

本文探讨了KNN算法中K值的选择方法及其对模型性能的影响。K值过小可能导致过拟合,而K值过大则可能引起欠拟合。通过平衡近似误差与估计误差,采用如交叉验证等技术确定最优K值。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


1 K值选择说明

  • 举例说明:

img

  • K值过小

    • 容易受到异常点的影响 过拟合
  • k值过大:

    • 受到样本均衡的问题 欠拟合

K值选择问题,李航博士的一书「统计学习方法」上所说:

    1. 选择较小的K值,就相当于用较小的领域中的训练实例进行预测,
    • “学习”近似误差会减小,只有与输入实例较近或相似的训练实例才会对预测结果起作用,与此同时带来的问题是“学习”的估计误差会增大,
    • 换句话说,K值的减小就意味着整体模型变得复杂,容易发生过拟合;
    1. 选择较大的K值,就相当于用较大领域中的训练实例进行预测,
    • 其优点是可以减少学习的估计误差,但缺点是学习的近似误差会增大。这时候,与输入实例较远(不相似的)训练实例也会对预测器作用,使预测发生错误。
    • 且K值的增大就意味着整体的模型变得简单。
    1. K=N(N为训练样本个数),则完全不足取,
    • 因为此时无论输入实例是什么,都只是简单的预测它属于在训练实例中最多的类,模型过于简单,忽略了训练实例中大量有用信息。
  • 实际应用中,K值一般取一个比较小的数值,例如采用交叉验证法(简单来说,就是把训练数据在分成两组:训练集和验证集)来选择最优的K值。

  • 近似误差

    • 对现有训练集的训练误差,关注训练集
    • 如果近似误差过小可能会出现过拟合的现象,对现有的训练集能有很好的预测,但是对未知的测试样本将会出现较大偏差的预测。
    • 模型本身不是最接近最佳模型。
  • 估计误差

    • 可以理解为对测试集的测试误差,关注测试集,
    • 估计误差小说明对未知数据的预测能力好,
    • 模型本身最接近最佳模型。

2 小结

  • KNN中K值大小选择对模型的影响

    • K值过小

      • 容易受到异常点的影响
      • 容易过拟合
    • k值过大:

      • 受到样本均衡的问题
      • 容易欠拟合
  • 近似误差、估计误差基本概念介绍【了解】

    • 近似误差
      • 对现有训练集的训练误差,关注训练集
    • 估计误差
      • 可以理解为对测试集的测试误差,关注测试集
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

赵广陆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值