云词图自动分割,创建html

博客介绍云词图自动分割及创建html,使用pyecharts和WordCloud创建云词图,还运用jieba进行分词,属于自然语言处理相关内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author LQ6H

import jieba
from collections import Counter
import pyecharts.options as opts
from pyecharts.charts import WordCloud


def get_text():

    f=open("zx.txt",encoding="gbk")
    # f = open("zx.txt", encoding="utf-8")
    lines=f.read()

    text=lines.split("\n\n")

    return "".join(text)

jieba.load_userdict("自定词库.txt")

def split_word(text):

    word_list=list(jieba.cut(text))

    with open("停用词库.txt") as f:
        meaningless_word=f.read().splitlines()

    result=[]

    for i in word_list:

        if i not in meaningless_word:
            result.append(i.replace(" ",""))

    return result

def word_counter(words):

    words_counter=Counter(words)

    words_list=words_counter.most_common(111)#排名前N

    return words_list


def word_cloud(data):
    (
        WordCloud()
            .add(
            series_name="热词分析",
            data_pair=data,
            word_gap=5,
            word_size_range=[20,500],
            shape="cursive",
            # mask_image="书.jpg"
        ).set_global_opts(
            title_opts=opts.TitleOpts(
                title="热词分析",title_textstyle_opts=opts.TextStyleOpts(font_size=23)
            ),
            tooltip_opts=opts.TooltipOpts(is_show=True),
        )
        .render("热词.html")
    )


def main():

    text=get_text()

    words=split_word(text)

    data=word_counter(words)

    word_cloud(data)

if __name__ == '__main__':

    main()

转自

https://www.cnblogs.com/LQ6H/archive/2004/01/13/12940529.html
追逐强
云词图自动分割,创建html
用到工具pyecharts和WordCloud创建云词图、jieba分词

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值