中文词频统计

本文介绍如何使用Python的jieba库进行中文文本的分词处理,并通过实例演示了如何读取文本文件,去除停用词后进行词频统计及排序,最终输出词频最高的前10个词汇。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >



下载一长篇中文文章。

从文件读取待分析文本。

news = open('gzccnews.txt','r',encoding = 'utf-8')

安装与使用jieba进行中文分词。

pip install jieba

import jieba

list(jieba.lcut(news))

生成词频统计

排序

排除语法型词汇,代词、冠词、连词

输出词频最大TOP20

 

import jieba
f=open('sanwen.txt','r')
text=f.read()
wordlist=list(jieba.lcut(text))

Words={}
for i in set(wordlist):
    Words[i]=wordlist.count(i)

delete_word={'中国的', '','','','','','','','','','',
           '','','','','','','', ''}

for i in delete_word:
    if i in Words:
        del Words[i]

sort_word = sorted(Words.items(), key= lambda d:d[1], reverse = True)
for i in range(10):
    print(sort_word[i])

 

运行截图:

 

 



转载于:https://www.cnblogs.com/lzs741788135/p/8663754.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值