python笔记:5.3.18_基本统计图形_词云图_定制底图

本文介绍了一种使用Python的数据分析技术,通过读取CSV文件中的数据,利用jieba进行中文分词,再结合词云图库WordCloud及matplotlib进行可视化展示的方法。具体实践是以一带一路峰会的徽标为背景模板,生成了反映数据中高频词汇分布的词云图。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

以一带一路峰会徽标为模板绘制词云图。

# -*- coding: utf-8 -*-
"""
Created on Mon Jun 10 13:30:59 2019

@author: User
"""


import jieba
from wordcloud import WordCloud,STOPWORDS,ImageColorGenerator
import pandas as pd
import matplotlib.pyplot as plt
from scipy.misc import imread

s=pd.read_csv('data\\ch5\yidai.csv',encoding = "utf-8")
#print(s.head())
print(s.info())

mylist=s['chapter1']

word_list=[" ".join(jieba.cut(sentence)) for sentence in mylist]
new_text=' '.join(word_list) # 将所有文本链接起来
coloring=imread('data\\ch5\yidai.png')
stw=STOPWORDS.copy()
stw.add(u'人')
stw.add(u'的')
stw.add(u'等')


wordcloud=WordCloud(font_path='c:\\windows\\font\\msyh.ttc', # 'data\\ch5\msyh.ttc'
                    background_color="white",
                    max_font_size=180,
                    scale=2,
                    mask=coloring,
                    stopwords=stw,
                    random_state=42,
                    width=2000,
                    height=1000,
                    max_words=200).generate(new_text)

image_colors=ImageColorGenerator(coloring)
plt.imshow(wordcloud)
plt.axis('off')

fig=plt.gcf()
fig.set_size_inches(12,8)
plt.show()

运行:

学习《python数据分析基础》的笔记。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值