统计词频,使用matplotlib画图验证齐普夫定律

词频统计与可视化
    以下我是用了人民日报的数据和英文数据进行分词,这里我是用的是pkuseg这个分词工具,原因是当时我读了一篇关于翟天临的文章,关于计算相似度,里面使用的是这个工具,然后我是用的是哈工大的停用此表,统计词频、排序等进行一系列的文本与预处理。接下就是使用matplotlib画图啦。
#-*-coding:utf-8-*-
from collections import Counter
import pkuseg
import matplotlib.pyplot as plt
import numpy
#导入文件
with open("The People's Daily.txt",encoding='utf-8') as fp:
    with open("English.txt",encoding='utf-8-sig') as fp1:
     data = fp.read()
     fp.close()
     data1=fp1.read()
     fp1.close()
#人民日报数据清理
def cleanWord(content):
    seg = pkuseg.pkuseg()
    text = seg.cut(content)
    stopwords = []
    with open("哈工大停用词表.txt",encoding="utf-8") as f:
        stopwords = f.read()
    new_text = []
    for w in text:
        if len
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值