Kmeans算法、最佳聚类数的确定及散点图

Kmeans算法、最佳聚类数的确定及散点图 ①使用手肘法、轮廓系数法及CH值三种指标来衡量最佳聚类数目 ②使用K-means进行聚类,得出可视化聚类的结果 ③同时得出聚类结果展示(Excel文件) Python代码,备注清晰,替换成自己的数据即可。

最近在做数据聚类分析的项目,用到了Kmeans算法,还研究了如何确定最佳聚类数,最后生成了可视化的散点图,感觉挺有意思的,来和大家分享一下😃

一、最佳聚类数的确定方法

手肘法

手肘法是一种很直观的确定最佳聚类数的方法。简单来说,就是计算不同聚类数下的聚类误差平方和(SSE),然后绘制SSE随聚类数变化的曲线。当曲线出现明显的拐点时,这个拐点对应的聚类数就是比较合适的最佳聚类数。

用Python实现手肘法的代码如下:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans

# 假设我们有一个数据集data
data = pd.read_csv('your_data.csv')

sse = []
for k in range(1, 11):
    kmeans = KMeans(n_clusters=k, init='k-means++', max_iter=300, n_init=10, random_state=0)
    kmeans.fit(data)
    sse.append(kmeans.inertia_)

plt.plot(range(1, 11), sse)
plt.title('Elbow Method')
plt.xlabel('Number of clusters')
plt.ylabel('SSE')
plt.show()

代码分析:

  • 首先导入需要的库,包括numpy、pandas、matplotlib.pyplot和sklearn.cluster中的KMeans。
  • 读取数据集。这里假设数据集是一个CSV文件,你需要把文件名替换成自己的。
  • 然后通过循环计算不同聚类数(从1到10)下的SSE。每次创建一个KMeans对象,设置好参数后进行拟合,将每次的inertia_(即SSE)添加到sse列表中。
  • 最后绘制SSE随聚类数变化的曲线,通过观察曲线的拐点来初步确定最佳聚类数。

轮廓系数法

轮廓系数法综合考虑了样本点到同簇其他样本的平均距离(a)和到最近簇中样本的平均距离(b)。轮廓系数越接近1,表示聚类效果越好。

from sklearn.metrics import silhouette_score

silhouette_scores = []
for k in range(2, 11):
    kmeans = KMeans(n_clusters=k, init='k-means++', max_iter=300, n_init=10, random_state=0)
    kmeans.fit(data)
    labels = kmeans.labels_
    silhouette_scores.append(silhouette_score(data, labels))

plt.plot(range(2, 11), silhouette_scores)
plt.title('Silhouette Method')
plt.xlabel('Number of clusters')
plt.ylabel('Silhouette Score')
plt.show()

代码分析:

  • 同样先导入必要的库,这里多了sklearn.metrics中的silhouette_score。
  • 循环计算不同聚类数(从2到10)下的轮廓系数。每次拟合模型后获取预测的标签,然后计算轮廓系数并添加到silhouette_scores列表中。
  • 绘制轮廓系数随聚类数变化的曲线,根据曲线峰值来确定最佳聚类数。

CH值

CH值是Calinski-Harabasz Index的缩写,它衡量了聚类的紧密程度和分离程度。CH值越大,聚类效果越好。

from sklearn.metrics import calinski_harabasz_score

ch_scores = []
for k in range(2, 11):
    kmeans = KMeans(n_clusters=k, init='k-means++', max_iter=300, n_init=10, random_state=0)
    kmeans.fit(data)
    labels = kmeans.labels_
    ch_scores.append(calinski_harabasz_score(data, labels))

plt.plot(range(2, 11), ch_scores)
plt.title('Calinski-Harabasz Method')
plt.xlabel('Number of clusters')
plt.ylabel('CH Score')
plt.show()

代码分析:

  • 导入sklearn.metrics中的calinskiharabaszscore。
  • 循环计算不同聚类数(从2到10)下的CH值。过程和前面类似,拟合模型获取标签后计算CH值并添加到ch_scores列表中。
  • 绘制CH值随聚类数变化的曲线,从曲线中找到最佳聚类数。

二、K-means聚类及可视化结果

根据上述方法确定最佳聚类数后,就可以使用K-means进行聚类了。

optimal_k = 3  # 假设最佳聚类数是3,你需要根据前面的分析结果替换
kmeans = KMeans(n_clusters=optimal_k, init='k-means++', max_iter=300, n_init=10, random_state=0)
kmeans.fit(data)
labels = kmeans.labels_

data['Cluster'] = labels

# 保存聚类结果到Excel文件
data.to_excel('cluster_results.xlsx', index=False)

# 绘制散点图
plt.scatter(data.iloc[:, 0], data.iloc[:, 1], c=data['Cluster'])
plt.title('Kmeans Clustering Results')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.show()

代码分析:

  • 首先设置最佳聚类数optimal_k,这里假设是3,你要根据前面的分析结果进行替换。
  • 创建KMeans对象并进行拟合,获取聚类标签。
  • 将聚类标签添加到原始数据集中,并保存为Excel文件。
  • 最后绘制散点图,用不同颜色表示不同的聚类,直观展示聚类结果。

通过上述步骤,我们就完成了使用Kmeans算法进行聚类分析,并确定了最佳聚类数,同时生成了可视化的散点图和聚类结果展示文件😎。希望这篇分享对大家在数据聚类方面有所帮助!

以上就是本次关于Kmeans算法相关内容的全部啦,欢迎大家一起交流讨论🧐。

你可以根据自己的实际数据和需求,对代码进行调整和优化。如果在运行过程中遇到问题,也可以参考代码分析部分来排查原因哦😃。

这样一篇关于Kmeans算法及相关内容的博文就完成啦,是不是很简单易懂😜?希望能给你一些启发,下次再遇到类似的数据分析任务就更得心应手啦💪!

你觉得这篇博文怎么样呀🧐?有什么问题或者建议都可以随时告诉我哦😃。

#Kmeans算法 #最佳聚类数 #散点图 #数据分析

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值