本节任务:数据读取与数据分析
1. 数据读取有分析:
数据读取和数据分析,具体使用Pandas库完成数据读取操作,并对赛题数据进行分析构成。
1.1 学习目标:
- 学习使用
Pandas读取赛题数据 - 分析赛题数据的分布规律
1.2 数据读取:
赛题数据虽然是文本数据,每个新闻是不定长的,但任然使用csv格式进行存储。因此可以直接用Pandas完成数据读取的操作。
import pandas as pd
train_df = pd.read_csv('../input/train_set.csv', sep='\t', nrows=100)
这里的read_csv由三部分构成:
-
读取的文件路径,这里需要根据改成你本地的路径,可以使用相对路径或绝对路径;
-
分隔符
sep,为每列分割的字符,设置为\t即可; -
读取行数
nrows,为此次读取文件的函数,是数值类型(由于数据集比较大,建议先设置为100);

上面的例子是读取好的数据,是表格的形式。
第一列为新闻的类别,第二列为新闻的字符。
1.3 数据分析:
在读取完成数据集后,我们还可以对数据集进行数据分析的操作。虽然对于非结构数据并不需要做很多的数据分析,但通过数据分析还是可以找出一些规律的。
此步骤我们读取了所有的训练集数据,在此我们通过数据分析希望得出以下结论:
- 赛题数据中,新闻文本的长度是多少?
- 赛题数据的类别分布是怎么样的,哪些类别比较多?
- 赛题数据中,字符分布是怎么样的?
1.3.1 句子长度分析:
在赛题数据中每行句子的字符使用空格进行隔开,所以可以直接统计单词的个数来得到每个句子的长度。统计并如下:
%pylab inline
train_df['text_len'] = train_df['text'].apply(lambda x: len(x.split(' ')))
print(train_df['text_len'].describe())
输出结果为:
Populating the interactive namespace from numpy and matplotlib
count 200000.000000
mean 907.207110
std 996.029036
min 2.000000
25% 374.000000
50% 676.000000
75% 1131.000000
max 57921.000000
Name: text_len, dtype: float64
对新闻句子的统计可以得出,本次赛题给定的文本比较长,每个句子平均由907个字符构成,最短的句子长度为2,最长的句子长度为57921。
下图将句子长度绘制了直方图,可见大部分句子的长度都几种在2000以内。
_ = plt.hist(train_df['text_len'], bins=200)
plt.xlabel('Text char count')
plt.title("Histogram of char count")

1.3.2 新闻类别分布:
接下来可以对数据集的类别进行分布统计,具体统计每类新闻的样本个数。
train_df['label'].value_counts().plot(kind='bar')
plt.title('News class count')
plt.xlabel("category")

在数据集中标签的对应的关系如下:{'科技': 0, '股票': 1, '体育': 2, '娱乐': 3, '时政': 4, '社会': 5, '教育': 6, '财经': 7, '家居': 8, '游戏': 9, '房产': 10, '时尚': 11, '彩票': 12, '星座': 13}
从统计结果可以看出,赛题的数据集类别分布存在较为不均匀的情况。在训练集中科技类新闻最多,其次是股票类新闻,最少的新闻是星座新闻。
1.3.3 字符分布统计:
接下来可以统计每个字符出现的次数,首先可以将训练集中所有的句子进行拼接进而划分为字符,并统计每个字符的个数。
from collections import Counter
all_lines = ' '.join(list(train_df['text']))
word_count = Counter(all_lines.split(" "))
word_count = sorted(word_count.items(), key=lambda d:d[1], reverse = True)
print(len(word_count))
# 6869
print(word_count[0])
# ('3750', 7482224)
print(word_count[-1])
# ('3133', 1)
从统计结果中可以看出,在训练集中总共包括6869个字,其中编号3750的字出现的次数最多,编号3133的字出现的次数最少。
这里还可以根据字在每个句子的出现情况,反推出标点符号。下面代码统计了不同字符在句子中出现的次数,其中字符3750,字符900和字符648在20w新闻的覆盖率接近99%,很有可能是标点符号。
train_df['text_unique'] = train_df['text'].apply(lambda x: ' '.join(list(set(x.split(' ')))))
all_lines = ' '.join(list(train_df['text_unique']))
word_count = Counter(all_lines.split(" "))
word_count = sorted(word_count.items(), key=lambda d:int(d[1]), reverse = True)
print(word_count[0])
# ('3750', 197997)
print(word_count[1])
# ('900', 197653)
print(word_count[2])
# ('648', 191975)
1.4 数据分析的结论:
通过上述分析我们可以得出以下结论:
- 赛题中每个新闻包含的字符个数平均为1000个,还有一些新闻字符较长;
- 赛题中新闻类别分布不均匀,科技类新闻样本量接近4w,星座类新闻样本量不到1k;
- 赛题总共包括7000-8000个字符;
通过数据分析,我们还可以得出以下结论:
-
每个新闻平均字符个数较多,可能需要截断;
-
由于类别不均衡,会严重影响模型的精度;
1.5 本章小结:
1. 本章对赛题数据进行读取,并新闻句子长度、类别和字符进行了可视化分析。
import pandas as pd
from collections import Counter
import re
## 分隔符sep,将每列分割开的字符,设置为\t即可
train_df = pd.read_csv('TRAIN_DATA/train_set.csv', sep='\t')
## 用标点符号对每篇新闻进行分割,分割的片段数量为该条新闻的句子数
train_df['sentence_num'] = train_df['text'].apply(lambda x: len(re.split('3750|900|648', x)))
print('该条新闻的句子数 :', sum(train_df['sentence_num'])/len(train_df['sentence_num']))
结果为:
该条新闻的句子数 : 80.80237
2. 统计每类新闻中出现次数对多的字符;
from collections import Counter
## 将同一类的文本拼接在一起,并去掉其中的标点符号
all_lines_in_a_class = []
for i in range(14):
line = ' '.join(train_df[train_df['label'] == i]['text'])
all_lines_in_a_class.append(re.sub('3750|900|648','',line))
## 统计每类新闻里各字符出现的次数
print('每类新闻里各字符出现的次数为:')
for i,line in enumerate(all_lines_in_a_class):
line = filter(lambda x: x, line.split(' '))
word_count = Counter(line)
word_count = sorted(word_count.items(), key=lambda d: int(d[1]), reverse=True)
print(i,':',word_count[0][0])
结果为:
每类新闻里各字符出现的次数为:
0 : 3370
1 : 3370
2 : 7399
3 : 6122
4 : 4411
5 : 6122
6 : 6248
7 : 3370
8 : 6122
9 : 7328
10 : 3370
11 : 4939
12 : 4464
13 : 4939
Pandas数据分析实战
本文详细介绍如何使用Pandas库进行数据读取与分析,包括数据集的初步探索、句子长度统计、新闻类别分布及字符频率分析,揭示数据集特性,为模型训练奠定基础。
1164

被折叠的 条评论
为什么被折叠?



