其实Kmeans在机器学习中是一种无监督学习算法,整个算法很好理解,
算法第一步: 在数据集中随机选择K个质点作为质心,
第二步: 计算整个数据集中每个元素到K个质心的距离,选择最近的质心,将该元素划分到该 质心
第三步: 经过第二步计算,每个质心都有一个集合,重新计算质心:计算每个集合的均值。
重复第二步和第三步: 理想的状态的,第三步重新计算的质心和原质心一样不变,说明已经达到理想状态,可以停止算法了,而实际上,我们通常给一个最大计算次数。
该算法弊端:
1. 很容易受到离群点数据的影响
2. K值很难选择
kmeans函数:
class sklearn.cluster.KMeans(n_clusters=8, init=’k-means++’,
n_init=10, max_iter=300, tol=0.0001,
precompute_distances=’auto’, verbose=0,
random_state=None, copy_x=True,
n_jobs=None, algorithm=’auto’)
例子:
import numpy as np
from sklean.cluster import KMeans
X = np.array([
[1,2,3],
[4,0,9],
[1,4,6],
[10,2,3],
[10,3,0],
[10,9,1]
])
km = KMeans(n_cluster=2).fit(X)
print km.labels_ #label
y = km.predict([[1,4,5]]) #预测
print y
print km.cluster_centers_ #质心