目录
非监督学习(unsupervised learning)
主要方法:k-means

如何数据化为三个类别?

k-means步骤
1、随机设置K个特征空间内的点作为初始的聚类中心。
2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类
中心点作为标记类别。
3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平
均值)。
4、如果计算得出的新中心点与原中心点一样,那么结束,否则重新进行。
第二步过程
k-means API
•
sklearn.cluster.KMeans(
n_clusters=8,init=‘k-means++’
)
•
k-means
聚类
•
n_clusters
:
开始的聚类中心数量
•
init
:
初始化方法,默认为
'k-means ++’
•
labels_:默认标记的类型,可以和真实值比较(不是值比较。
聚类做在分类之前。
k-means对Instacart Market用户聚类
导包
from sklearn.cluster import KMeans
# 把样本数量减少
x = data[:500]
x.shape
(500, 27)
假设用户一共分为四个类别
km = KMeans(n_clusters=4)#4个类别
km.fit(x)#随机找4个中心店,一步步去聚类
KMeans(algorithm='auto', copy_x=True, init='k-means++', max_iter=300,
n_clusters=4, n_init=10, n_jobs=1, precompute_distances='auto',
random_state=None, tol=0.0001, verbose=0)
聚类
predict = km.predict(x)
predict#将500个样本标记类别

显示聚类结果
导包
import matplotlib.pyplot as plt
显示结果
plt.figure(figsize=(10,10))#设置画板大小
# 建立四个颜色的列表
colored = ['orange', 'green', 'blue', 'purple']
colr = [colored[i] for i in predict]#遍历列表
plt.scatter(x[:, 1], x[:, 20], color=colr)#选取两个特征
plt.xlabel("1")#第一个特征
plt.ylabel("20")#第二个特征
plt.show()

Kmeans性能评估指标


如果𝑠𝑐𝑖 小于0,说明a_i 的平均距离大于最近的其他簇。
聚类效果不好
如果𝑠𝑐𝑖 越大,说明a_i 的平均距离小于最近的其他簇。
聚类效果好
轮廓系数的值是介于 [-1,1] ,越趋近于1代表内聚度和分离度都相对较优.
Kmeans性能评估指标API
•
sklearn.metrics.silhouette_score
(
X
,
labels
)
•
计算所有样本的平均轮廓系数
•
X
:特征值
•
labels
:被聚类标记的目标值
导包
from sklearn.metrics import silhouette_score
评判聚类效果,轮廓系数
# 评判聚类效果,轮廓系数
silhouette_score(x, predict)#特征值,标记的样本。
![]()
Kmeans总结
特点分析:
采用迭代式算法,直观易懂并且非常实用
缺点:容易收敛到局部最优解(多次聚类)
需要预先设定簇的数量(k-means++解决)

本文深入解析了K-means聚类算法的工作原理及应用,包括算法步骤、API使用、性能评估指标,并通过InstacartMarket用户聚类实例演示了整个流程。
2293

被折叠的 条评论
为什么被折叠?



