文本分词并统计出现次数最高的几个词Python

本文介绍了如何使用Python进行文本数据分析的词频统计。通过读取文本文件,进行分词、去除停用词,最终找出出现次数最多的N个词。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、问题描述

在做文本数据分析时,经常遇到需要做词频分析,而做词频分析又经常需要统计出现次数最高的几个词,下面代码给出了基于Python的文本数据统计,基本流程为:首先读取一个文本文件,之后进行分词,再去除停用词,最后统计出现次数最多的N个词。

二、Python代码

import jieba
from collections import Counter
############################################
# 功能:获取文本文件内容
# 输入参数
#       filename:待读取的文本文件名
# 返回值
#       txtConts:读取的文本内容
def GetTxtDataFromFile( filename ):
    with open( filename, mode = 'r' ) as fp:
        txtConts = fp.read()
        return txtConts
############################################
# 功能:分词,并去除分词结果中的停用词
# 输入参数
#       txtConts:原始文本
#       stopWord:停用词
# 返回值
#       cutList:去除停用词之后的分词结果
def CutWithStopWord( txtConts, stopWord ):
    cutList = []
    strList = jieba.cut( txtConts )
    
    for word in strList:
        if not( word in stopWord ) and len( word ) > 1:
            
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值