聚类算法原理及评估方法

1 聚类算法简介

1.1 认识聚类算法

什么是聚类算法?

  • 根据样本之间的相似性,将样本划分到不同的类别中;不同的相似度计算方法,会得到不同的聚类结果,常用的相似度计算方法有欧式距离法。

  • 聚类算法的目的是在没有先验知识的情况下,自动发现数据集中的内在结构和模式。

  • 无监督学习算法

在这里插入图片描述

使用不同的聚类准则,产生的聚类结果不同

1.1.1 聚类算法在现实中的应用

用户画像,广告推荐,Data Segmentation,搜索引擎的流量推荐,恶意流量识别

基于位置信息的商业推送,新闻聚类,筛选排序

图像分割,降维,识别;离群点检测;信用卡异常消费;发掘相同功能的基因片段
在这里插入图片描述

1.1.2 聚类算法的概念

聚类算法

一种典型的 无监督 学习算法,主要用于将相似的样本自动归到一个类别中。

在聚类算法中根据样本之间的相似性,将样本划分到不同的类别中,对于不同的相似度计算方法,会得到不同的聚类结果,常用的相似度计算方法有欧式距离法。

1.1.3 聚类算法与分类算法最大的区别

  • 聚类算法是无监督的学习算法,而分类算法属于监督的学习算法。
  • 聚类最常使用,在对数据进行最初处理的时候,没有先验信息,可以使用聚类算法,给样本进行添加标签。

1.1.4 聚类算法分类

  • 根据聚类颗粒度进行分类
    在这里插入图片描述

  • 根据实现方法分类

    • K-means:按照质心分类,主要介绍K-means,通用、普遍

    • 层次聚类:对数据进行逐层划分,直到达到聚类的类别个数

    • DBSCAN聚类是一种基于密度的聚类算法

    • 谱聚类是一种基于图论的聚类算法

1.2. 小结

聚类的定义

  • 一种典型的无监督学习算法
  • 主要用于将相似的样本自动归到一个类别中
  • 计算样本和样本之间的相似性,一般使用欧式距离

聚类与分类算法的区别

  • 聚类是无监督学习算法,训练数据不需要标签,分类算法属于监督学习算法

2 Kmeans API的使用

2.1 KMeans API介绍

sklearn.cluster.KMeans(n_clusters=8)

  • 参数:n_clusters:开始的聚类中心数量,整型,默认值是8,生成聚类数,即产生的质心(centroids)数
  • 方法
 estimator.fit(x)
 estimator.predict(x)
 # 训练和预测采用的数据集都是一样的
 estimator.fit_predict(x)# 相当于先调用fit(x),然后再调用predict(x)

2.2 Kmeans案例

随机创建不同二维数据集作为训练集,并结合k-means算法将其聚类,你可以尝试分别聚类不同数量的簇,并观察聚类效果:

在这里插入图片描述

聚类参数n_cluster传值不同,得到的聚类结果不同

在这里插入图片描述

2.2.1流程分析

在这里插入图片描述

2.2.2 代码实现

1.创建数据集

import matplotlib.pyplot as plt
from sklearn.datasets.samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import silhouette_score

# 创建数据集
# X为样本特征,Y为样本簇类别, 共1000个样本,每个样本2个特征,共4个簇,60
# 簇中心在[-1,-1], [0,0],[1,1], [2,2], 簇方差分别为[0.4, 0.2, 0.2, 0.2]
# n_samples - 样本数
# n_feature - 特征个数
# centers = [] - 指定中心点坐标
# cluster_std - 设置标准差

# 返回X - 样本数据 和 y 分类标签
X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],
                  random_state=9)

# 数据集可视化
# 查看X的两个特征之间的分布
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

2.使用k-means进行聚类,并使用silhouette_score(轮廓系数)评估

y_pred = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluses=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()

# 用轮廓系数评估的聚类分数
print(silhouette_score(X, y_pred))

2.3 小结

sklearn.cluster.KMeans(n_clusters=8)

  • 参数: n_clusters:开始的聚类中心数量

  • 方法: estimator.fit_predict(x)

    计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(x),然后再调用predict(x)

3 Kmeans实现流程

3.1 Kmeans聚类步骤

k-means其实包含两层内容:

  • K表示初始中心点个数(计划聚类数)
  • means求中心点到其他数据点距离的平均值

具体步骤如下:

  1. 随机设置K个特征空间内的点作为初始的聚类中心

  2. 对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别

  3. 接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)

  4. 如果计算得出的新中心点与原中心点一样(质心不再移动),那么结束,否则重新进行第二步过程

通过下图解释实现流程:

在这里插入图片描述

3.2 Kmeans实现流程案例

数据集:

在这里插入图片描述
1、随机设置K个特征空间内的点作为初始的聚类中心(本案例中设置p1和p2)

在这里插入图片描述
最初随机选择的K个特征,特征的选择会对于模型的训练结果有影响

2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别

在这里插入图片描述

3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)

在这里插入图片描述

  • 计算得出的新的中心值与原中心有偏差,以新的中心值为中心,重复步骤2

4、如果计算得出的新中心点与原中心点一样(质心不再移动),那么结束,否则重新进行第二步过程【经过判断,需要重复上述步骤,开始新一轮迭代】

在这里插入图片描述

5、当每次迭代结果不变时,认为算法收敛,聚类完成,K-Means一定会停下,不可能陷入一直选质心的过程。
在这里插入图片描述

3.3 小结

K-means聚类实现流程

  • 事先 确定常数K ,常数K意味着最终的聚类类别数;
  • 随机 选定初始点为质心 ,并通过计算每一个样本与质心之间的相似度(这里为欧式距离),将样本点归到最相似的类中,
  • 接着,重新计算 每个类的质心(即为类中心),重复这样的过程,直到 质心不再改变
  • 最终就确定了每个样本所属的类别以及每个类的质心。
  • 注意:由于每次都要计算所有的样本与每一个质心之间的相似度,故在大规模的数据集上,K-Means算法的收敛速度比较慢。

4 聚类算法模型评估

4.1 误差平方和(SSE The sum of squares due to error):

举例:(下图中数据-0.2, 0.4, -0.8, 1.3, -0.7, 均为真实值和预测值的差)

在这里插入图片描述

在k-means中的应用:

在这里插入图片描述

公式各部分内容:

在这里插入图片描述
1.Ci 表示簇

2.k 表示聚类中心的个数

3.p 表示某个簇内的样本

4.m 表示质心点

上图中: k=2

  • SSE图最终的结果,对图松散度的衡量.(eg: SSE(左图)<SSE(右图))
  • SSE 越小,表示数据点越接近它们的中心,聚类效果越好
  • SSE随着聚类迭代,其值会越来越小,直到最后趋于稳定:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 如果质心的初始值选择不好,SSE只会达到一个不怎么好的局部最优解.

在这里插入图片描述

在这里插入图片描述

4,2 “肘”方法 (Elbow method) — K值确定

在这里插入图片描述

(1)对于n个点的数据集,迭代计算k from 1 to n,每次聚类完成后计算每个点到其所属的簇中心的距离的平方和;

(2)平方和是会逐渐变小的,直到k==n时平方和为0,因为每个点都是它所在的簇中心本身。

(3)在这个平方和变化过程中,会出现一个拐点也即“肘”点,下降率突然变缓时即认为是最佳的k值

在决定什么时候停止训练时,肘形判据同样有效,数据通常有更多的噪音,在增加分类无法带来更多回报时,我们停止增加类别



from sklearn.cluster import KMeans
 import matplotlib.pyplot as plt
 from sklearn.datasets import make_blobs
 from sklearn.metrics import calinski_harabasz_score



def dm01_SSE误差平方和求模型参数():
   sse_list = []
 
   *#* *产生数据**random_state**=22**固定好
\*   x, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
            cluster_std=[0.4, 0.2, 0.2, 0.2], random_state=22)
 
   for clu_num in range(1, 100):
     my_kmeans = KMeans(n_clusters=clu_num, max_iter=100, random_state=0)
     my_kmeans.fit(x)
     sse_list.append(my_kmeans.inertia_ ) *#* *获取**sse**的值
 
\*   plt.figure(figsize=(18, 8), dpi=100)
   plt.xticks(range(0, 100, 3), labels=range(0, 100, 3))
   plt.grid()
   plt.title('sse')
   plt.plot(range(1, 100), sse_list, 'or-')
   plt.show()
   *#* *通过图像可观察到* *n_clusters**=4* *sse**开始下降趋缓**,* *最佳值**4*

在这里插入图片描述

4.3 轮廓系数法(Silhouette Coefficient)

结合了聚类的凝聚度(Cohesion)和分离度(Separation),用于评估聚类的效果:

在这里插入图片描述
目的:内部距离最小化,外部距离最大化

  • 对计算每一个样本 i 到同簇内其他样本的平均距离 ai,该值越小,说明簇内的相似程度越大
  • 计算每一个样本 i 到最近簇 j 内的所有样本的平均距离 bij,该值越大,说明该样本越不属于其他簇 j
  • 根据下面公式计算该样本的轮廓系数:S = (b -a)/(max⁡(a, b))
  • 计算所有样本的平均轮廓系数
  • 轮廓系数的范围为:[-1, 1],SC值越大聚类效果越好

计算样本i到同簇其他样本的平均距离ai,ai 越小样本i的簇内相似度越大,说明样本i越应该被聚类到该簇。

计算样本i到最近簇Cj 的所有样本的平均距离bij,称样本i与最近簇Cj 的不相似度,定义为样本i的簇间不相似度:bi =min{bi1, bi2, …, bik},bi越大,说明样本i越不属于其他簇。

簇内样本的距离越近,簇间样本距离越远

4.3.1 SC系数案例

下图是500个样本含有2个feature的数据分布情况,我们对它进行SC系数效果衡量:

在这里插入图片描述

n_clusters = 2 The average silhouette_score is : 0.7049787496083262

n_clusters = 3 The average silhouette_score is : 0.5882004012129721

n_clusters = 4 The average silhouette_score is : 0.6505186632729437

n_clusters = 5 The average silhouette_score is : 0.56376469026194

n_clusters = 6 The average silhouette_score is : 0.4504666294372765

n_clusters 分别为 2,3,4,5,6时,SC系数如下,是介于[-1,1]之间的度量指标:

每次聚类后,每个样本都会得到一个轮廓系数,当它为1时,说明这个点与周围簇距离较远,结果非常好,当它为0,说明这个点可能处在两个簇的边界上,当值为负时,暗含该点可能被误分了。

4.3.2 SC API使用

from sklearn.cluster import KMeans
 import matplotlib.pyplot as plt
 from sklearn.datasets import make_blobs
 from sklearn.metrics import silhouette_score


 def dm02_轮廓系数SC():
   tmp_list = []
   # 产生数据**random_state**=22**固定好
   x, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
            cluster_std=[0.4, 0.2, 0.2, 0.2], random_state=22)
 
   for clu_num in range(2, 100):
     my_kmeans = KMeans(n_clusters=clu_num, max_iter=100, random_state=0)
     my_kmeans.fit(x)
     ret = my_kmeans.predict(x)
     tmp_list.append(silhouette_score(x, ret)) *#* *sc**
 
   plt.figure(figsize=(18, 8), dpi=100)
   plt.xticks(range(0, 100, 3), labels=range(0, 100, 3))
   plt.grid()
   plt.title(‘sse’)
   plt.plot(range(2, 100), tmp_list, ‘ob-)
   plt.show()
   *#* *通过图像可观察到* *n_clusters**=4* *取到**最大值*

在这里插入图片描述

4.4 CH轮廓系数法(Calinski-Harabasz Index)

CH 系数考虑簇内的内聚程度、簇外的离散程度、质心的个数

  • 类别内部数据的距离平方和越小越好,类别之间的距离平方和越大越好。聚类的种类数越少越好
    在这里插入图片描述
  • SSW 的含义:相当于SSE,蔟内距离
    • C p i C_pi Cpi表示质心
    • x i x_i xi表示某个样本
    • SSW 值是计算每个样本点到质心的距离,并累加起来
    • SSW 表示表示簇内的内聚程度,越小越好
  • SSB 的含义:簇间距离
    • C j C_j Cj表示质心, X ‾ \overline {X} X表示质心与质心之间的中心点, n j n_j nj表示样本的个数

    • SSB 表示簇与簇之间的分离程度,SSB 越大越好

    • m 表示样本数量

    • k 表示质心个数,目标希望k越小越好

4.4.1 CH系数法 API

 import matplotlib.pyplot as plt
 from sklearn.datasets import make_blobs
 from sklearn.metrics import calinski_harabasz_score 
 def dm03_ch系数():
   tmp_list = []
 
   *#* *产生数据**random_state**=22**固定好
\*   x, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
            cluster_std=[0.4, 0.2, 0.2, 0.2], random_state=22)
 
   for clu_num in range(2, 100):
     my_kmeans = KMeans(n_clusters=clu_num, max_iter=100, random_state=0)
     my_kmeans.fit(x)
     ret = my_kmeans.predict(x)
 
     tmp_list.append(calinski_harabasz_score(x, ret)) *#* *sc**
 
\*   plt.figure(figsize=(18, 8), dpi=100)
   plt.xticks(range(0, 100, 3), labels=range(0, 100, 3))
   plt.grid()
   plt.title('ch')
   plt.plot(range(2, 100), tmp_list, 'og-')
   plt.show()

在这里插入图片描述

4.5 小结

  1. SSE:误差平方和的值越小越好
  2. 肘部法:下降率突然变缓时即认为是最佳的k值
  3. SC系数:取值为[-1, 1],其值越大越好
  4. CH系数:考虑簇内,簇外和质心个数,越大越好
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值