Python实现文本处理功能,使用jieba库将输入的文章进行中文分词,并统计每个词出现的次数,最后按照出现次数降序输出前N个词及其出现次数。

本文介绍了如何使用Python的jieba库进行中文分词,并结合Counter类统计词频,最终按频率降序输出前N个高频词汇。

Python实现文本处理功能,使用jieba库将输入的文章进行中文分词,并统计每个词出现的次数,最后按照出现次数降序输出前N个词及其出现次数。

下面是代码实现:

import jieba
from collections import Counter

def display_words(article, n):
    # 对文章进行分词并去除停用词
    words = [w for w in jieba
### 不使用第三方的方法 不使用第三方时,可按以下思路对文章进行统计分词计算两个字组成的的出现次数:将文章按两个字符为一组进行截取,然后统计每组出现的次数。以下是示例代码: ```python text = "这是一个示例文章,示例很重要" word_count = {} for i in range(len(text) - 1): word = text[i:i+2] if word in word_count: word_count[word] += 1 else: word_count[word] = 1 # 输出结果 for word, count in word_count.items(): print(f"{word}: {count}") ``` 此方法简单直接,将文章按两个字符一组进行拆分统计,不依赖外部,但它只是简单的字符组合,未考虑中文语义,分词结果可能包含无意义的字符组合。 ### jieba分词jieba是常用的中文分词第三方,它能根据中文语义进行分词使用jieba统计两个字组成的的出现次数的示例代码如下: ```python import jieba from collections import Counter text = "这是一个示例文章,示例很重要" words = jieba.lcut(text) two_char_words = [word for word in words if len(word) == 2] word_count = Counter(two_char_words) # 输出结果 for word, count in word_count.items(): print(f"{word}: {count}") ``` jieba分词法能结合中文语义进行分词,可识别有意义的词语分词结果更符合语言习惯,能避免无意义的字符组合,但需安装jieba。 ### 对比 - **准确性**:不使用第三方的方法准确性较低,只是简单的字符组合,不考虑语义;jieba分词法准确性高,能结合语义,得到更合理的分词结果。 - **复杂度**:不使用第三方的方法实现简单,代码量少;jieba分词法需安装第三方,且代码稍复杂。 - **适用场景**:不使用第三方的方法适用于对准确性要求不高、追求简单快速的场景;jieba分词法适用于对分词准确性要求较高的自然语言处理任务,如文本分类、情感分析等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值