python学习-112-通过sklearn实现自然语言处理的KMeans聚类方法(清晰版)

本文详细介绍使用Python的sklearn库进行KMeans聚类分析的过程,以文本数据集为例,展示了从TF-IDF特征提取到KMeans聚类,再到PCA降维可视化的一系列操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言:

         kmeans聚类是一种非常常用的聚类方法,因其简单理解,运算高效的特点被广泛使用,今天我们通过强大的sklearn包进行kmeans的实现,通过自然语言处理的文本聚类来进行功能实现。这里只展示清晰的代码实现过程,理论知识与流程不在赘述。

使用的数据集地址:

https://download.youkuaiyun.com/download/u013521274/11080094

对于初学python的人来说,找到可以看懂的代码,没有数据无法运行的确是头疼的事情所以本人在此把数据集给出,以便于更多的小伙伴们记性学习,共同进步。

代码实现:

# -*- coding: utf-8 -*-
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.feature_extraction.text import TfidfTransformer,CountVectorizer,HashingVectorizer

#-----------------------------------------第一步计算TFIDF---------------------------------------
corpus = []
for line in open('data/Result.txt', 'r',encoding='utf-8',errors='ignore').readlines():
    corpus.append(line.strip())
print('库有几行:',len(corpus)) #一行代表一个文档(也可以代表一类据情况而定)

vectorizer = CountVectorizer()#将文本中的词语转换为词频矩阵 矩阵元素a[i][j] 表示j词在i类文本下的词频

transformer = TfidfTransformer()#该类会统计每个词语的tf-idf权值

#第一个fit_transform是计算tf-idf 第二个fit_transform是将文本转为词频矩阵
tfidf = transformer.fit_transform(vectorizer.fit_transform(corpus))#获得tfidf值

word = vectorizer.get_feature_names()#获取词袋模型中的所有词语->词表

weight = tfidf.toarray()#将tf-idf矩阵抽取出来,元素w[i][j]表示j词在i类文本中的tf-idf权重
num = np.array(weight)  #这个权重其实即使大的稀疏矩阵
print("矩阵的列是",num.shape[1])#列数=词表的个数
print( '词表大小:'+str(len(word)))#可以作为比对


#-----------------------------------------第二步 聚类kmeans------------------------------------
from sklearn.cluster import KMeans
clf = KMeans(n_clusters=4) #参数4代表聚成4类,还有其他参数可以设置
s=clf.fit(weight) #调用fit()方法进行聚类 输入:weight=Tfidf的稀疏矩阵
print(s)          #可以查看kmeans()其他参数

#中心点
print(len(clf.cluster_centers_))#对于矩阵来说len是行
# print(clf.cluster_centers_)#4类 每一类的中心点

#用来评估簇的个数是否合适,距离越小说明簇分的越好,选取临界点的簇个数  958.137281791
# print(clf.inertia_)#    958.1511490717049

#---------------------------------------第三步文档所属簇的索引(标号)提取----------------------

#每一个样本所属于的簇-------最终要的东西---我们聚类的目的就是要知道每一个文档所属于的簇----
# print(clf.labels_)
#我们就是把clf.labels_中的信息提取出来以便于画图
listlabel=[]
i=0
while i<len(clf.labels_):
    listlabel.append([i,clf.labels_[i]])
    i=i+1

frame = pd.DataFrame(listlabel,columns=['index','class'])#使用pandas处理方便

'''属于0簇的文档索引index保存在list0中'''
list0=[]                                                 #簇是从0开始计数的第0类,第1类...
data0=frame[(frame[u'class']==0)].ix[:,0]
for m in data0:
    list0.append(m)

list1=[]
data1=frame[(frame[u'class']==1)].ix[:,0]
for m in data1:
    list1.append(m)

list2=[]
data2=frame[(frame[u'class']==2)].ix[:,0]
for m in data2:
    list2.append(m)

list3=[]
data3=frame[(frame[u'class']==3)].ix[:,0]
for m in data3:
    list3.append(m)

#---------------------------------------第四步 图形输出 PCA降维-------------------------------#
from sklearn.decomposition import PCA
pca = PCA(n_components=2)#输出2维
newData = pca.fit_transform(weight)
print('降维后有几行?',len(newData))
# print(newData)

#5A景区
x1=[]          #存储x坐标
y1=[]          #存储y坐标
for j in list0:
    x1.append(newData[j][0])
    y1.append(newData[j][1])

#动物
x2 = []
y2 = []
for j in list1:
    x2.append(newData[j][0])
    y2.append(newData[j][1])

#人物
x3 = []
y3 = []
for j in list2:
    x3.append(newData[j][0])
    y3.append(newData[j][1])

#国家
x4 = []
y4 = []
for j in list3:
    x4.append(newData[j][0])
    y4.append(newData[j][1])

#四种颜色 红 绿 蓝 黑
plt.plot(x1, y1, 'or')
plt.plot(x2, y2, 'og')
plt.plot(x3, y3, 'ob')
plt.plot(x4, y4, 'ok')
plt.show()

聚类结果:

 

本程序是在python中完成,基于sklearn.cluster中的k-means聚类实现数据的聚类,对于里面使用的数据格式如下:(注意更改程序中的相关参数) 138 0 124 1 127 2 129 3 119 4 127 5 124 6 120 7 123 8 147 9 188 10 212 11 229 12 240 13 240 14 241 15 240 16 242 17 174 18 130 19 132 20 119 21 48 22 37 23 49 0 42 1 34 2 26 3 20 4 21 5 23 6 13 7 19 8 18 9 36 10 25 11 20 12 19 13 19 14 5 15 29 16 22 17 13 18 46 19 15 20 8 21 33 22 41 23 69 0 56 1 49 2 40 3 52 4 62 5 54 6 32 7 38 8 44 9 55 10 70 11 74 12 105 13 107 14 56 15 55 16 65 17 100 18 195 19 136 20 87 21 64 22 77 23 61 0 53 1 47 2 33 3 34 4 28 5 41 6 40 7 38 8 33 9 26 10 31 11 31 12 13 13 17 14 17 15 25 16 17 17 17 18 14 19 16 20 17 21 29 22 44 23 37 0 32 1 34 2 26 3 23 4 25 5 25 6 27 7 30 8 25 9 17 10 12 11 12 12 12 13 7 14 6 15 6 16 12 17 12 18 39 19 34 20 32 21 34 22 35 23 33 0 57 1 81 2 77 3 68 4 61 5 60 6 56 7 67 8 102 9 89 10 62 11 57 12 57 13 64 14 62 15 69 16 81 17 77 18 64 19 62 20 79 21 75 22 57 23 73 0 88 1 75 2 70 3 77 4 73 5 72 6 76 7 76 8 74 9 98 10 90 11 90 12 85 13 79 14 79 15 88 16 88 17 81 18 84 19 89 20 79 21 68 22 55 23 63 0 62 1 58 2 58 3 56 4 60 5 56 6 56 7 58 8 56 9 65 10 61 11 60 12 60 13 61 14 65 15 55 16 56 17 61 18 64 19 69 20 83 21 87 22 84 23 41 0 35 1 38 2 45 3 44 4 49 5 55 6 47 7 47 8 29 9 14 10 12 11 4 12 10 13 9 14 7 15 7 16 11 17 12 18 14 19 22 20 29 21 23 22 33 23 34 0 38 1 38 2 37 3 37 4 34 5 24 6 47 7 70 8 41 9 6 10 23 11 4 12 15 13 3 14 28 15 17 16 31 17 39 18 42 19 54 20 47 21 68 22
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值