kNN

既是最简单的机器学习算法之一,也是基于实例的学习方法中最基本的,又是最好的文本分类算法之一。如对电影的分类,收集许多电影及特征如拥抱镜头,打斗镜头和搞笑镜头的数量,和label,构成了数据集。然后对一个新电影进行分类属于爱情片,动作片还是喜剧片。

算法思想:一个样本与数据集中的k个样本最相似,如果这k个样本中的大多数属于某一个类别,则该样本也属于这个类别。

那么问题是有一个新样本,问属于哪类?

步骤:
1. 我们构建一个已分好类的数据集。
2. 计算一个新样本与数据集中所有数据的距离。
3. 按照距离大小进行递增排序。
4. 选取距离最小的k个样本。
5. 确定前k个样本所在类别出现的频率,并输出出现频率最高的类别。

KNN有几个特点:

(1)KNN属于惰性学习(lazy-learning)

KNN没有显式的学习过程,也就是说没有训练阶段。数据集事先已有了分类和特征值,待收到新样本后直接进行处理。

(2)KNN的计算复杂度较高

新样本需要与数据集中每个数据进行距离计算,计算复杂度和数据集中的数据数目n成正比,也就是说,KNN的时间复杂度为O(n),因此KNN一般适用于样本数较少的数据集。

(3)k取不同值时,分类结果可能会有显著不同。

一般k的取值不超过20,上限是n的开方。

若k=3,则绿色点被归为红色,若k=5,则被归为蓝色。

需要注意的问题:

距离如何度量,经典的方法有欧氏距离,也可以是加权距离等,总之能反应数据之间相似程度的方法就可以。

sklearn的kNN

无监督kNN:

from sklearn.neighbors import NearestNeighbors
model = NearestNeighbors(n_neighbors=5, algorithm='auto')
model.fit(X)
indices, dist=model.kneighbors(input)# 返回input与X中最近5个点的index和5个距离。

kNN分类:

from sklearn.neighbors import KNeighborsClassifier
X, y
model = KneighborsClassifier(n_neighbors=5,weights='uniform',algorithm='auto')
model.fit(X,y)
model.predict(input)
model.predict_proba(input)

kNN回归

from sklearn.neighbors import KNeighborsRegressor
X = [[0], [1], [2], [3]]
y = [0, 0, 1, 1]
model = KNeighborsRegressor(n_neighbors=2)
model.fit(X, y)
print(model.predict([[1.5]]))
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值