python进行词语筛选生成词云

由于未提供博客具体内容,无法生成包含关键信息的摘要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import wordcloud
import re
import jieba
import pandas as pd
import numpy
from wordcloud import WordCloud
import matplotlib.pyplot as plt
type = ['','&percent_type=h','&percent_type=m','&percent_type=l']
for j in range(4):
    with open('影评{}'.format(type[j]) + '.txt',"r",encoding='utf-8') as f:#
    #可以选择替换txt文件
        data=f.readlines()
        col = ''
        for k in data:
            k = k.strip('\n')  # 去掉读取中的换行字符

            col=col+k
        pattern = re.compile(r'[\u4e00-\u9fa5]+')#查找汉字
        filterdata = re.findall(pattern, col)
        cleanedcol=''.join(filterdata)

        segment = jieba.lcut(cleanedcol)#分解成词语
        words_df = pd.DataFrame({'segment': segment})
        #创建Dataframe型的数据结构,类似于表格,用于存放排序segment
        stopwords = pd.read_csv("stopwords.txt",index_col=False,quoting=3,sep="\t",names=['stopword'],encoding='gbk')
        #读取stopwords中的内容存入stopwords(和Dtaframe结构相似)中
        words_df=words_df[~words_df.segment.isin(stopwords.stopword)]
        #isin函数用于清洗数据,把words_df中的数据换成两个表中都不存在的数据
        words_stat=words_df.groupby(by=['segment'])['segment'].agg([("计数",numpy.size)])
        #对words_stat中的词语统计,新添一列计数表示每个词出现的频率
        words_stat=words_stat.reset_index().sort_values(by=["计数"],ascending=False)
        #按照计数中的数值大小降序排序
        word_fre={x[0]:x[1] for x in words_stat.head(1000).values}
        #读取前两列数据key和value
        word_fre_list=[]
        for key in word_fre:
            temp = (key,word_fre[key])
            word_fre_list.append(temp)
            #存入word_fre_list中
        wordcloud=WordCloud(font_path="simhei.ttf",background_color="white",width=2000,height=1000)
        wordcloud=wordcloud.fit_words(dict(word_fre_list))


        wordcloud.to_file("F://PycharmDemo/Project/DouBan/temp{}".format(type[j])+".png")


#-----------------------------------------------------------------------------------

    # with open('F:\\PycharmDemo\Test\影评{}'.format(type[j]) + '.txt',"r",encoding='utf-8') as f:
    #     wordcloud = WordCloud(background_color='Black',  # 背景色
    #                           width=2000,  # 宽度
    #                           height=1000,  # 高度
    #                           margin=1,  # 词语边缘距离
    #                           font_path='C:\windows\Fonts\simhei.ttf') .generate(f.read())
    #     wordcloud.to_image().show()



### 中文分生成 为了实现中文分并创建,可以采用 `jieba` 库来进行分处理,并利用 `wordcloud` 库来绘制图。以下是具体的操作流程。 #### 安装所需库 首先需要确保已经安装了必要的 Python 库: ```bash pip install jieba wordcloud matplotlib ``` 这一步骤是为了准备所需的工具环境[^2]。 #### 加载文本数据 假设哈姆雷特的文本片段已经被保存到本地的一个 `.txt` 文件中,可以通过如下方式读取该文件的内容: ```python with open('hamlet.txt', 'r', encoding='utf-8') as file: text = file.read() ``` 这里假定文件名为 `hamlet.txt` 并且是以 UTF-8 编码存储的文字内容。 #### 使用 Jieba 进行分 对于中文文本来说,`jieba` 提供了几种不同的分模式。针对本案例中的需求,可以选择使用精确模式来进行更精准的分割操作: ```python import jieba words = jieba.cut(text, cut_all=False) # 设置cut_all参数为False表示启用精确模式 word_list = list(words) print(word_list[:10]) # 输出前十个词语查看效果 ``` 上述代码实现了对输入文本按照汉语习惯进行合理的断句拆解工作[^3]。 #### 创建频统计字典 接着要构建一个映射关系表用于后续绘图时指定各汇出现次数作为权重依据: ```python from collections import Counter word_counts = Counter(word_list) # 可选:过滤掉一些常见的停用(如“的”,“是”等),以提高展示质量 filtered_words = {k: v for k, v in word_counts.items() if len(k)>1 and not k.isdigit()} top_n = dict(sorted(filtered_words.items(), key=lambda item:item[1], reverse=True)[:100]) ``` 这段脚本会计算每个独立条在整个文档集合里的频率分布情况,并筛选出最常使用的若干项以便更好地呈现最终图形化结果。 #### 绘制图像 最后借助于 `WordCloud()` 函数轻松完成视觉化的表达过程: ```python from wordcloud import WordCloud import matplotlib.pyplot as plt wc = WordCloud(font_path='/path/to/simhei.ttf', background_color="white", max_words=100, width=800, height=400) # Generate a word cloud image from the frequency dictionary wc.generate_from_frequencies(top_n) plt.figure(figsize=(15,7)) plt.imshow(wc, interpolation='bilinear') plt.axis("off") plt.show() ``` 注意这里的 `font_path` 参数指定了用来渲染汉字的具体字体路径;如果操作系统默认支持的话也可以省略此选项让程序自动寻找合适的样式资源[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

隼尘

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值