机器学习笔记 - k-NN算法的数学表达

本文深入探讨了k-NN算法,强调了其假设前提是相似的输入有相似的输出。介绍了k-NN的正式定义,指出k值的选择对分类器的影响,特别是在k=n和k=1的情况。讨论了距离度量的重要性,特别是闵可夫斯基距离在分类中的作用。文章还证明了1-NN在n趋近无穷时的收敛性,并提及k-NN在高维数据上的效率问题。最后,提到了k-NN在数据量少或特征不易提取场景的应用,并给出一个使用OpenCV进行手写识别的例子。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、概述

       所有的机器学习算法都是有假设前提的。k-NN算法的假设前提是相似的输入有相似的输出。其分类规则是对于测试输入x,在其k个最相似的训练输入中分配最常见的标签。

        k-NN 的正式定义:

        对于一个待测试数据x

        将xk个最近邻的集合表示为 S_xS_x的正式定义为 S_x \subseteq D

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

坐望云起

如果觉得有用,请不吝打赏

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值