一、KNN 的基本思想
- 找到未分类的测试样本附近已知类别的的样本,该样本的类别由K个已知类别样本的投票选出,也就是距离最近的K个样本的类别。
二、KNN算法流程
1)计算待分类点与已知类别的点之间的距离
2)按照距离递增次序排序
3)选取与待分类点距离最小的K个点
4)确定前K个点所在类别的出现次数
5)返回前K个点出现次数最高的类别作为待分类点的预测分类
三、KNN优化
3.1 K值的选取
-
作为KNN算法中唯一的一位超参数,K值的选择对最终算法的预测结果会产生直观重要的影响。
-
如果选择较小的K值,就相当于用较小的邻域中的训练实例进行预测,“学习”的近似误差会减小,只有输入实例较近的训练实例才会对预测结果起作用。但缺点是“学习”的估计误差会增大,预测结果会对近邻实例点非常敏感。如果邻近的实例点恰巧是噪声,预测就会出错。换句话说,K值得减小就意味着整体模型非常复杂,容易发生过拟合。
-
如果选择较大的K值,就相当于用较大邻域中的训练实例进行预测,其实优点是减少学习的估计误差,