中文词频统计与词云生成

该博客介绍了使用Python进行中文词频统计的方法。包括下载中文小说、读取文本、用jieba分词、更新词库、生成词频统计、排序、排除停用词、输出TOP20词频并保存到文件,最后生成词云。

https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2822

中文词频统计

1. 下载一长篇中文小说。

2. 从文件读取待分析文本。

3. 安装并使用jieba进行中文分词。

pip install jieba

import jieba

jieba.lcut(text)

4. 更新词库,加入所分析对象的专业词汇。

jieba.add_word('天罡北斗阵')  #逐个添加

jieba.load_userdict(word_dict)  #词库文本文件

参考词库下载地址:https://pinyin.sogou.com/dict/

转换代码:scel_to_text

XiaoShuo = open(r"C:\Users\Administrator\Desktop\青蛙王子.txt",'r',encoding="utf8")
xiaoshuo = XiaoShuo.read()
XiaoShuo.close()
import jieba
jieba.add_word('小公主')
text = jieba.lcut(xiaoshuo)

 

5. 生成词频统计

with open(r"C:\Users\Administrator\Desktop\stops_chinese.txt",'r',encoding="utf8")as f:
    stops = f.read().split('\n')
tokens = [token for token in text if token not in stops]
print(len(tokens),len(text))
cut_text = " ".join(tokens)

 

6. 排序

ZiDian = {}

for str in tokens:
    if str in ZiDian.keys():
        ZiDian[str] = ZiDian[str] + 1
    else:
        ZiDian[str] = 1

ZiDian = sorted(ZiDian.items(),key=lambda x:x[1],reverse=True)

 

7. 排除语法型词汇,代词、冠词、连词等停用词。

stops

tokens=[token for token in wordsls if token not in stops]

tokens = [token for token in text if token not in stops]
print(len(tokens),len(text))

 

8. 输出词频最大TOP20,把结果存放到文件里

for i in ZiDian[0:20]:
    print(i)

9. 生成词云。

from scipy.misc import imread
im = imread(r'C:\Users\Administrator\Desktop\guaguagua.jpg')
mywcl = WordCloud(background_color='white',mask=im,width=8000,height=4000,margin=2,max_font_size=150,max_words=2000).generate(cut_text)

import matplotlib.pyplot as plt
plt.imshow(mywcl)
plt.axis("off")

plt.show()
mywcl.to_file(r'C:\Users\Administrator\Desktop\qingwa.png')

转载于:https://www.cnblogs.com/qiannuohan/p/10579842.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值