最近在搞评分卡,发现分别使用xlsx和csv读取数据,出现大坑
使用xlsx格式数据,然后
df[col].value_counts(normalize=True) 查看各种取值的
数值 | 占比 |
---|---|
1 | 0.7 |
0 | 0.1 |
未知 | 0.1 |
有 | 0.1 |
但是使用df.to_csv之后,得到的新的csv文件
df[col].value_counts(normalize=True) 查看各种取值的
数值 | 占比 |
---|---|
1 | 0.4 |
1 | 0.3 |
0 | 0.1 |
未知 | 0.1 |
有 | 0.1 |
可以看到1被拆散了
原因:因为df.read_csv()底层是推理列的取值类型的,要么用户主动指定,要么依靠pd底层自动推理,但是当行数大的时候,如果low_memory = False不开启的话,默认低内存模式,他会随机采样,这样就有可能判断当前列取值为字符串,有可能判断当前列取值为数值
建议
读取csv的时候,强制df.read_csv(‘xx.csv’,low_memory = False)