码字不易,喜欢请点赞!!!
这篇文章主要分享了使用Python来对文本数据进行情感分析以及绘制词云。
主要步骤包括:
1.文本预处理
2.文本分词
3.去除停用词(这里设置为单个词和一些常见的停用词)
4.词频统计
5.情感分析
6.绘制词云
首先导入所需的程序办和文本数据:
#带入程序包
import pandas as pd
import re
import jieba
import collections
from wordcloud import WordCloud, ImageColorGenerator, STOPWORDS
import matplotlib.pyplot as plt
from PIL import Image
#读取数据
path = r"data.txt"
with open(path) as f:
data = f.read()
1.使用正则表达式对文本数据进行预处理,这里主要去除数据的一些没用的符号
# 文本预处理
pattern = re.compile(u'\t|\n|\.|-|:|;|\)|\(|\?|"')
data = re.sub(pattern, '', data)
2.使用精准模式对文本进行分词
# 文本分词--精确模式分词
seg_list_exact = jieba.cut(data,cut_all = False)
3.去除停用词,这里主要去除了一些常见的停用词和单个词
object_list = []
# 自定义常见去除词库
remove_words = [u'的', u',',u'和', u'是', u'随着', u'对于', u'对',u'等',u'能',u'都',u'。',u' ',u'、',u'中',u'在',u'了',u'通常',u'如果',u'我们',u'需要']
for word in seg_list_exact: