零基础入门NLP之新闻文本分类_Task2
Taks2中要完成的主要是对新闻数据的分布规律进行探索和了解。这里主要是对代码进行了复现与详解。
1.导入第三方模块
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
from collections import Counter # python中自带的计数器
2.读取训练集,这里我导入了全量训练集
train_df = pd.read_csv(r'D:\Users\Felixteng\Documents\Pycharm Files\Nlp\data\train_set.csv', sep='\t')
train_df.head()
可以发现,数据主要由’text’和’label’两个部分构成。text由空格隔开。
3.句子长度分析
'''
数据中每行句子的字符使用空格进行隔开,所以可以直接统计单次的个数来得到每个句子的长度
%pylab inline 是jupyternotebook中用于调试的的魔法函数,pycharm中用回plt.show()即可
'''
train_df['text_len'] = train_df['text'].apply(lambda x: len(x.split(' '))) # text数据按空格分割后计数
print(train_df['text_len'].describe()) # 对每个句子的长度做统计性描述
可以看出,数据文本较长,每个句子平均由907个字符构成