第4章 变形

第4章 变形

文章目录

一、内容大概

在这里插入图片描述

import numpy as np
import pandas as pd
df = pd.read_csv('data/table.csv')
df.head()
SchoolClassIDGenderAddressHeightWeightMathPhysics
0S_1C_11101Mstreet_11736334.0A+
1S_1C_11102Fstreet_21927332.5B+
2S_1C_11103Mstreet_21868287.2B+
3S_1C_11104Fstreet_21678180.4B-
4S_1C_11105Fstreet_41596484.8B+

二、透视表

1. pivot

一般状态下,数据在DataFrame会以压缩(stacked)状态存放,例如上面的Gender,两个类别被叠在一列中,pivot函数可将某一列作为新的cols:
## 返回按给定的索引/列值组织的重整型DataFrame。
df.pivot(index='ID',columns='Gender',values='Height').head()
GenderFM
ID
1101NaN173.0
1102192.0NaN
1103NaN186.0
1104167.0NaN
1105159.0NaN
然而pivot函数具有很强的局限性,除了功能上较少之外,还不允许index中出现重复的行列索引对(pair),例如下面的语句就会报错:
df.pivot(index='ID',columns='Gender',values='School').head()
GenderFM
ID
1101NaNS_1
1102S_1NaN
1103NaNS_1
1104S_1NaN
1105S_1NaN
df.pivot(index='ID',columns='School',values='Height').tail()
SchoolS_1S_2
ID
2401NaN192.0
2402NaN166.0
2403NaN158.0
2404NaN160.0
2405NaN193.0
#Index contains duplicate entries, cannot reshape
df.pivot(index='School',columns='Gender',values='Height').head()
因此,更多的时候会选择使用强大的pivot_table函数

2. pivot_table

首先,再现上面的操作:
  • pivot_table(data, values=None, index=None, columns=None, aggfunc=‘mean’, fill_value=None, margins=False, dropna=True, margins_name=‘All’, observed=False)
# 创建电子表格样式的数据透视表作为DataFrame
pd.pivot_table(df,index='ID',columns='Gender',values='Height').head()
GenderFM
ID
1101NaN173.0
1102192.0NaN
1103NaN186.0
1104167.0NaN
1105159.0NaN
由于功能更多,速度上自然是比不上原来的pivot函数:
%timeit df.pivot(index='ID',columns='Gender',values='Height')
%timeit pd.pivot_table(df,index='School',columns='Gender',values='Height',aggfunc='sum')
%timeit pd.crosstab(index=df['Address'],columns=df['Gender'],values='Height',aggfunc='sum')
6.61 ms ± 39.7 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
8.3 ms ± 30 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
Pandas中提供了各种选项,下面介绍常用参数:
① aggfunc:对组内进行聚合统计,可传入各类函数,默认为’mean’
  • 对Height 按Gender聚合后 使用mean sum 函数
pd.pivot_table(df,index='School',columns='Gender',values='Height',aggfunc=['mean','sum']).head()
meansum
GenderFMFM
School
S_1173.125000178.71428613851251
S_2173.727273172.00000019111548
② margins:汇总边际状态
  • 当margins为True时将包含总计的行/列的名称
  • margins_name可以设置名字,默认为’All’
pd.pivot_table(df,index='School',columns='Gender',values='Height',aggfunc=['mean','sum'],margins=True).head()
meansum
GenderFMAllFMAll
School
S_1173.125000178.714286175.733333138512512636
S_2173.727273172.000000172.950000191115483459
All173.473684174.937500174.142857329627996095
③ 行、列、值都可以为多级
df1 = pd.pivot_table(df,index=['School','Class'],
               columns=['Gender','Address'],
               values=['Height','Weight'])
df1.swaplevel(i=1,j=0,axis=1).sort_index().head()
GenderFM...FM
HeightHeight...WeightWeight
Addressstreet_1street_2street_4street_5street_6street_7street_1street_2street_4street_5...street_4street_5street_6street_7street_1street_2street_4street_5street_6street_7
SchoolClass
S_1C_1NaN179.5159.0NaNNaNNaN173.0186.0NaNNaN...64.0NaNNaNNaN63.082.0NaNNaNNaNNaN
C_2NaNNaN176.0162.0167.0NaNNaNNaNNaN188.0...94.063.063.0NaNNaNNaNNaN68.053.0NaN
C_3175.0NaNNaN187.0NaNNaNNaN195.0161.0NaN...NaN69.0NaNNaNNaN70.068.0NaNNaN82.0
S_2C_1NaNNaNNaN159.0161.0NaNNaNNaN163.5NaN...NaN97.061.0NaNNaNNaN71.0NaNNaN84.0
C_2NaNNaNNaNNaNNaN188.5175.0NaN155.0193.0...NaNNaNNaN76.574.0NaN91.0100.0NaNNaN

5 rows × 24 columns

3. crosstab(交叉表)

交叉表是一种特殊的透视表,典型的用途如分组统计,如现在想要统计关于街道和性别分组的频数:
foo = pd.Categorical(['a', 'b'], categories=['a', 'b', 'c'])
bar = pd.Categorical(['d', 'e'], categories=['d', 'e', 'f'])
# 此时 c类不存在 为NaN
foo
# 此时 f类不存在 为NaN
bar
## 这里的“ c”和“ f”未在数据中表示,也不会在输出中显示,因为dropna默认为True。设置dropna = False可以保留没有数据的类别。
pd.crosstab(foo, bar,dropna = False)
col_0def
row_0
a100
b010
c000
pd.crosstab(index=df['Address'],columns=df['Gender'])
GenderFM
Address
street_112
street_242
street_435
street_533
street_651
street_733
交叉表的功能也很强大(但目前还不支持多级分组),下面说明一些重要参数:
① values和aggfunc:分组对某些数据进行聚合操作,这两个参数必须成对出现

默认参数等于如下方法:

  • pd.crosstab(index=df[‘Address’],columns=df[‘Gender’],values=1,aggfunc=‘count’)
pd.crosstab(index=df['Address'],columns=df['Gender'],
            values=np.random.randint(1,20,df.shape[0]),aggfunc='min')

GenderFM
Address
street_164
street_2105
street_462
street_5108
street_694
street_784
② 除了边际参数margins外,还引入了normalize参数,可选’all’,‘index’,'columns’参数值
pd.crosstab(index=df['Address'],columns=df['Gender'],normalize='all',margins=True)
GenderFMAll
Address
street_10.0285710.0571430.085714
street_20.1142860.0571430.171429
street_40.0857140.1428570.228571
street_50.0857140.0857140.171429
street_60.1428570.0285710.171429
street_70.0857140.0857140.171429
All0.5428570.4571431.000000

三、其他变形方法

1. melt

melt函数可以认为是pivot函数的逆操作,将unstacked状态的数据,压缩成stacked,使“宽”的DataFrame变“窄”
df_m = df[['ID','Gender','Math']]
df_m.head()
IDGenderMath
01101M34.0
11102F32.5
21103M87.2
31104F80.4
41105F84.8
df.pivot(index='ID',columns='Gender',values='Math').head()
GenderFM
ID
1101NaN34.0
110232.5NaN
1103NaN87.2
110480.4NaN
110584.8NaN
melt函数中的id_vars表示需要保留的列,value_vars表示需要stack的一组列
  • id_vars标识列 用于标识顺序
  • value_vars 需要stack的列
  • value_name 值名 var_name 变量列名
## 按照ID列作为索引 将Gender列的值作为变量 解压Math列值 获得按ID列索引Gender列变量对应值
pivoted = df.pivot(index='ID',columns='Gender',values='Math')
## 将pivoted恢复至自然索引 把ID列(一定要存在于DataFrame中 不是在索引上)作为标识列,把F M 作为变量stack其中的Value值 其实就是Math值
## 因为获得的是自然序列的DataFrame且可能由于原来的ID索引对应的变量F M 一对一 即一行只有一个 造成出现NaN值 所以要取出NaN值
## 最后重新设置索引 但由于自然索引的原因排在前面的都是F变量对应的值 所以要sort_index()获得最终结果
result = pivoted.reset_index().melt(id_vars=['ID'],value_vars=['F','M'],value_name='Math')\
                     .dropna().set_index('ID').sort_index()
#检验是否与展开前的df相同,可以分别将这些链式方法的中间步骤展开,看看是什么结果
result.equals(df_m.set_index('ID'))
result.head()
pivoted.reset_index().melt(id_vars=['ID'],value_vars=['F','M'],value_name='Math').head()
pivoted.reset_index().head()
## 这样删除NaN值后相对于原来是无序的
#pivoted.melt(value_vars=['F','M'],value_name='Math').dropna()
GenderIDFM
01101NaN34.0
1110232.5NaN
21103NaN87.2
3110480.4NaN
4110584.8NaN

2. 压缩与展开

(1)stack:这是最基础的变形函数,总共只有两个参数:level和dropna
df_s = pd.pivot_table(df,index=['Class','ID'],columns='Gender',values=['Height','Weight'])
df_s.groupby('Class').head(2)
df_s.head(10)
HeightWeight
GenderFMFM
ClassID
C_11101NaN173.0NaN63.0
1102192.0NaN73.0NaN
1103NaN186.0NaN82.0
1104167.0NaN81.0NaN
1105159.0NaN64.0NaN
2101NaN174.0NaN84.0
2102161.0NaN61.0NaN
2103NaN157.0NaN61.0
2104159.0NaN97.0NaN
2105NaN170.0NaN81.0
  • 默认为-1 此时的-1属性为Gender
df_stacked = df_s.stack()
df_stacked.groupby('Class').head(2)
df_stacked = df_s.stack()
df_stacked.head(20)
df_stacked.unstack().head(10)

HeightWeight
GenderFMFM
ClassID
C_11101NaN173.0NaN63.0
1102192.0NaN73.0NaN
1103NaN186.0NaN82.0
1104167.0NaN81.0NaN
1105159.0NaN64.0NaN
2101NaN174.0NaN84.0
2102161.0NaN61.0NaN
2103NaN157.0NaN61.0
2104159.0NaN97.0NaN
2105NaN170.0NaN81.0
stack函数可以看做将横向的索引放到纵向,因此功能类似与melt,参数level可指定变化的列索引是哪一层(或哪几层,需要列表)

Height 与 Weight为Level0层

df_stacked = df_s.stack(0)
df_stacked.groupby('Class').head(2)
GenderFM
ClassID
C_11101HeightNaN173.0
WeightNaN63.0
C_21201HeightNaN188.0
WeightNaN68.0
C_31301HeightNaN161.0
WeightNaN68.0
C_42401Height192.0NaN
Weight62.0NaN
(2) unstack:stack的逆函数,功能上类似于pivot_table
df_stacked.head()
GenderFM
ClassID
C_11101HeightNaN173.0
WeightNaN63.0
1102Height192.0NaN
Weight73.0NaN
1103HeightNaN186.0
result = df_stacked.unstack().swaplevel(1,0,axis=1).sort_index(axis=1)
result.equals(df_s)
#同样在unstack中可以指定level参数
True

四、哑变量与因子化

1. Dummy Variable(哑变量)

这里主要介绍get_dummies函数,其功能主要是进行one-hot编码:
df_d = df[['Class','Gender','Weight']]
df_d.head()
ClassGenderWeight
0C_1M63
1C_1F73
2C_1M82
3C_1F81
4C_1F64
现在希望将上面的表格前两列转化为哑变量,并加入第三列Weight数值:
  • 可选prefix参数添加前缀,prefix_sep添加分隔符
pd.get_dummies(df_d[['Class','Gender']]).join(df_d['Weight']).head()
#可选prefix参数添加前缀,prefix_sep添加分隔符
Class_C_1Class_C_2Class_C_3Class_C_4Gender_FGender_MWeight
010000163
110001073
210000182
310001081
410001064

2. factorize方法

该方法主要用于自然数编码,并且缺失值会被记做-1,其中sort参数表示是否排序后赋值
codes, uniques = pd.factorize(['b', None, 'a', 'c', 'b'], sort=True)
display(codes)
display(uniques)
array([ 1, -1,  0,  2,  1])



array(['a', 'b', 'c'], dtype=object)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值