# coding: utf-8
# 去除‘记录重复’的3种方法
# 法1---利用list去重
import pandas as pd
detail=pd.read_csv(r'D:\save\detail.csv',index_col=0,encoding='gbk')
# 去除‘特征重复’的2种方法
# 法1---通过相似度矩阵去重
# 求取售价和销量的相似度
corrDet=detail[['counts','amounts']].corr(method='kendall')
print('售价和销量的kendall法相似度矩阵为:\n',corrDet)
# 法2---通过DataFrame.equals方法进行特征去重
# 定义求取特征是否完全相同的矩阵的函数
def FeatureEquals(df):
dfEquals=pd.DataFrame([],columns=df.columns,index=df.columns)
for i in df.columns:
for j in df.columns:
dfEquals.loc[i,j]=df.loc[:,i].equals(df.loc[:,j])
return dfEquals
detEquals=FeatureEquals(detail)
print('detail的特征相等矩阵的前5行5列为:\n',detEquals.iloc[:5,:5])
# 通过遍历的方式进行数据筛选
lenDet=detEquals.shape[0]
dupCol=[]
for k in range(lenDet):
for l in range(k+1,lenDet):
if detEquals.iloc[k,l]& (detEquals.columns[l] not in dupCol):
dupCol.append(detEquals.columns[l])
# 进行去重
print('需要删除的列为',dupCol)
detail.drop(dupCol,axis=1,inplace=True)
print('删除多余列后detail的特征数目为:',detail.shape[1])