复习:在前面我们已经学习了Pandas基础,第二章我们开始进入数据分析的业务部分,在第二章第一节的内容中,我们学习了数据的清洗,这一部分十分重要,只有数据变得相对干净,我们之后对数据的分析才可以更有力。而这一节,我们要做的是数据重构,数据重构依旧属于数据理解(准备)的范围。
开始之前,导入numpy、pandas包和数据
导入基本库
import numpy as np
import pandas as pd
载入data文件中的:train-left-up.csv
df = pd.read_csv(r'D:\学习\DataAnalysis_2106\hands-on-data-analysis-master\第二章项目集合\train-left-up.csv')
2 第二章:数据重构
2.4 数据的合并
2.4.1 任务一:将data文件夹里面的所有数据都载入,观察数据的之间的关系
df_left_up = pd.read_csv(r'D:\学习\DataAnalysis_2106\hands-on-data-analysis-master\第二章项目集合\train-left-up.csv')
df_left_down = pd.read_csv(r'D:\学习\DataAnalysis_2106\hands-on-data-analysis-master\第二章项目集合\train-left-down.csv')
df_right_up = pd.read_csv(r'D:\学习\DataAnalysis_2106\hands-on-data-analysis-master\第二章项目集合\train-right-up.csv')
df_right_down = pd.read_csv(r'D:\学习\DataAnalysis_2106\hands-on-data-analysis-master\第二章项目集合\train-right-down.csv')
【提示】结合之前我们加载的train.csv数据,大致预测一下上面的数据是什么
2.4.2:任务二:使用concat方法:将数据train-left-up.csv和train-right-up.csv横向合并为一张表,并保存这张表为result_up
list_up = [df_left_up, df_right_up]
result_up = pd.concat(list_up, axis=1) #axis=1 列
2.4.3 任务三:使用concat方法:将train-left-down和train-right-down横向合并为一张表,并保存这张表为result_down。然后将上边的result_up和result_down纵向合并为result。
list_down = [df_left_down, df_right_down]
result_down = pd.concat(list_down, axis=1)
result = pd.concat([result_up, result_down]) #默认axis=0 行
2.4.4 任务四:使用DataFrame自带的方法join方法和append:完成任务二和任务三的任务
result_up = df_left_up.join(df_right_up)
result_down = df_left_down.join(df_right_down)
result = result_up.append(result_down)
2.4.5 任务五:使用Panads的merge方法和DataFrame的append方法:完成任务二和任务三的任务
result_up = pd.merge(df_left_up, df_right_up, left_index=True, right_index=True)
result_down = pd.merge(df_left_down, df_right_down,left_index=True, right_index=True)
result = result_up.append(result_down)
【思考】对比merge、join以及concat的方法的不同以及相同。思考一下在任务四和任务五的情况下,为什么都要求使用DataFrame的append方法,如何只要求使用merge或者join可不可以完成任务四和任务五呢?
1.concat既可以按行(axis=0 默认),也可以按列(axis=1)默认合并两张表。
2.append用于行方向拼接,语法简单
3.merge和join都用于列拼接 *merge类似于sql,拼接时根据主键将进行列拼接(合并表的列数等于两个原数据表的列数和减去连接键的数量); *如果合并两个没有相同列名的表,可以直接使用df1.join(df2),无需加其它参数
2.4.6 任务六:完成的数据保存为result.csv
result.to_csv('result.csv')
2.5 换一种角度看数据
2.5.1 任务一:将我们的数据变为Series类型的数据
df = pd.read_csv('result.csv')
unit_result = df.stack()
print(unit_result.head())
print(type(unit_result))
unit_result.unstack()
print(type(unit_result.unstack()))
stack: 将数据从"表格结构"(DataFrame类型)变成"花括号结构"(Series),即将其列索引变成行索引。
unstack: 数据从"花括号结构"变成"表格结构",即要将其中一层的行索引变成列索引。

本文介绍了数据重构的重要性和数据清洗的必要性,通过Pandas库展示了如何合并数据。首先,加载了多个csv文件并进行横向合并,使用了concat和merge方法。接着,探讨了这三种方法的异同,特别是append在特定情况下的使用。最后,将合并后的数据保存为result.csv,并将数据转换为Series类型,通过stack和unstack操作在不同视角下查看数据。
922

被折叠的 条评论
为什么被折叠?



