基于python的中文词频分析

本文通过实例展示了如何利用Python对中文文本进行词频分析、编码转换、正则表达式匹配等操作,实现聊天记录中个人说话习惯的统计与分析。包括中文编码处理、文本搜索与排序技巧,以及对唐诗宋词的多字词频分析。

受http://yixuan.cos.name/cn/2011/03/text-mining-of-song-poems/这篇文章的启发,觉得PYTHON来做文字处理分析应该不错,可以来做个词频分析,分析聊天记录可以看出每个人的说话习惯

用的是暴力方法 不用语义分析 直接列出所有出现的字词

做下来觉得难点就在中文编码这部分 python下中文涉及的编码转化确实要琢磨一番

首先数据文件要存为utf-8格式

在python显示中文的关键代码:

import sys reload(sys) sys.setdefaultencoding('utf8') txt.encode('gb18030') txt为中文字符串

搜索中文,用正则表达式匹配:

r = re.compile('[\x80-\xff]+') m = r.findall(txt)

字典排序,按照value排序,代码很精简:

dict=sorted(dict.items(), key=lambda d:d[1])

代码:

#coding=utf-8 #Author: http://blog.youkuaiyun.com/boksic import sys,re reload(sys) sys.setdefaultencoding('utf8') txt = open('blog.youkuaiyun.com.boksic.txt','r').read() wfile=open('result.txt','w') r = re.compile('[\x80-\xff]+') m = r.findall(txt) dict={} z1 = re.compile('[\x80-\xff]{2}') z2 = re.compile('[\x80-\xff]{4}') z3 = re.compile('[\x80-\xff]{6}') z4 = re.compile('[\x80-\xff]{8}') for i in m: x = i.encode('gb18030') i = z1.findall(x) #i+= z2.findall(x) #i+= z2.findall(x[2:]) #i+= z3.findall(x) #i+= z3.findall(x[2:]) #i+= z3.findall(x[4:]) #i+= z4.findall(x) #i+= z4.findall(x[2:]) #i+= z4.findall(x[4:]) #i+= z4.findall(x[6:]) for j in i: if (j in dict): dict[j]+=1 else: dict[j]=1 dict=sorted(dict.items(), key=lambda d:d[1]) for a,b in dict: if b>0: wfile.write(a+','+str(b)+'\n') 感觉匹配的代码还不是很好

于是改了一个直接在utf-8格式下搜索的代码

for l in range(len(i)/3): x+=[i[3*l:3*l+3]] for l in range(len(i)/3-1): x+=[i[3*l:3*l+6]] for l in range(len(i)/3-2): x+=[i[3*l:3*l+9]]
但实际运行速度太慢了,有时还有错误,望高手指点这部分

最后还是用正则搜索的代码,虽然代码比较冗长 运行速度还可以 50万字的文件 不到一秒就统计完了

(不太理解这里的python正则搜索的速度比数组存取怎么快这么多)

因为这种方法没有什么语义算法,所以得到的结果还需要一些人工筛选

聊天记录的统计效果:

低频单字


高频单字


多字


也来分析下唐诗宋词

单字的话

香,106

何,107

有,109

夜,109

日,111

千,114

年,114

是,114

时,115

相,117

雨,118

月,121

处,128

云,133

山,141

春,157

来,160

天,163

花,179

一,184

不,189

无,193

风,230

人,276


多字


归去,14
明月,14
西风,15
盈盈,15
不见,16
万里,17
多少,17
相思,18
风流,18
当年,18
浣溪,19
回首,19
少年,20
无人,20
千里,22
人间,24
何处,31








Python实现词频云和文本分析涉及多个步骤,包括文本预处理、分词、统计词频和生成词云等,以下是具体的方法及示例: ### 文本预处理与分词 Python有很多中文分词库,常见的有jieba、THULAC、pkuseg等[^4]。以jieba库为例,可进行如下分词操作: ```python import jieba content = "这是一段用于测试的中文文本。" word_list = jieba.cut(content) new_text = " ".join(word_list) print(new_text) ``` ### 统计词频 使用`collections`库中的`Counter`类统计词频: ```python from collections import Counter con_words = [x for x in jieba.cut(new_text) if len(x) > 2] frequencies = Counter(con_words).most_common() frequencies = dict(frequencies) print(frequencies) ``` ### 生成词云 使用`wordcloud`库根据词频生成词云,以下是示例代码: ```python from wordcloud import WordCloud import matplotlib.pyplot as plt # 简单形式矩形词云 def simpleWC1(sep='', back='black', freDictpath='data_fre.json', savepath='res.png'): try: with open(freDictpath) as f: data = f.readlines() data_list = [one.strip().split(sep) for one in data if one] fre_dict = {} for one_list in data_list: fre_dict[one_list[0]] = int(one_list[1]) except: fre_dict = freDictpath wc = WordCloud(font_path='font/simhei.ttf', # 设置字体 background_color=back, # 背景颜色 max_words=1300, # 词云显示的最大词数 max_font_size=120, # 字体最大值 margin=3, # 词云图边距 width=1800, # 词云图宽度 height=800, # 词云图高度 random_state=42) wc.generate_from_frequencies(fre_dict) # 从词频字典生成词云 plt.figure() plt.imshow(wc) plt.axis("off") wc.to_file(savepath) # 结合图片形状的词云 from scipy.misc import imread cut_text = open('E://pythonnotebook//text.txt', 'r').read() color_mask = imread('E://pythonnotebook//cloud.jpg') # 设置背景图 cloud = WordCloud( font_path='simfang.ttf', background_color='white', mask=color_mask, max_words=1000, max_font_size=100 ) word_cloud = cloud.generate(cut_text) # 保存词云图片 word_cloud.to_file('word_cloud.jpg') plt.imshow(word_cloud) plt.axis('off') plt.show() ``` ### 完整示例 结合以上步骤,完整代码如下: ```python import jieba from PIL import Image from wordcloud import WordCloud, STOPWORDS from scipy.misc import imread from collections import Counter import matplotlib.pyplot as plt content = open("./files/Text.txt", encoding="utf-8") word_list = [" ".join(jieba.cut(sentence=sentence)) for sentence in list(content)] new_text = " ".join(word_list) con_words = [x for x in jieba.cut(new_text) if len(x) > 2] frequencies = Counter(con_words).most_common() frequencies = dict(frequencies) pac_mask = imread("./files/1.png") wordcloud = WordCloud(font_path="simhei.ttf", background_color="white", max_words=2000, mask=pac_mask).fit_words(frequencies) plt.imshow(wordcloud) plt.axis("off") plt.show() wordcloud.to_file("./files/词频生成词云.png") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值