Knn和K-means

先开个标题,以后慢慢填充。

k近邻算法(knn)属于监督学习

 一、 三个关键点:1、k的取值,当k值较小时,选取点较少,相当于会有在较小的范围内进行学习预测,学习误差会减小,但是估计误差会增大,因为训练样本中存在噪声,选取过小的区域,噪声干扰的权重会较大,因为影响泛化能力,k减小意味整体模型复杂,容易过拟合;k选较大值时,以为选取较大的邻域进行预测,可以减少估计误差,但缺点是学习近似误差会增大,较远的点也会起到作用,k增大以为这模型简单。但是不能一味把k取大,除了计算量外,如k=N,那么无论输入实力是什么,预测结果都是训练集中最多的那个类。

2、距离的度量,最常见的欧式距离,更一般的是Lp距离,Lp范式,p=2时就是欧式距离。

3、分类决策规则:多数表决

二、kd树,是一种便于对k维空间中的数据进行快速检索的数据结构。kd树是二叉树,用来对空间进行划分,减少运算量的一种数据格式。

k均值(k-means)

是非监督学习,

转载于:https://www.cnblogs.com/smartwhite/p/8532669.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值