最近在搞评分卡,发现分别使用xlsx和csv读取数据,出现大坑
使用xlsx格式数据,然后
df[col].value_counts(normalize=True) 查看各种取值的
| 数值 | 占比 |
|---|---|
| 1 | 0.7 |
| 0 | 0.1 |
| 未知 | 0.1 |
| 有 | 0.1 |
但是使用df.to_csv之后,得到的新的csv文件
df[col].value_counts(normalize=True) 查看各种取值的
| 数值 | 占比 |
|---|---|
| 1 | 0.4 |
| 1 | 0.3 |
| 0 | 0.1 |
| 未知 | 0.1 |
| 有 | 0.1 |
可以看到1被拆散了
原因:因为df.read_csv()底层是推理列的取值类型的,要么用户主动指定,要么依靠pd底层自动推理,但是当行数大的时候,如果low_memory = False不开启的话,默认低内存模式,他会随机采样,这样就有可能判断当前列取值为字符串,有可能判断当前列取值为数值
建议
读取csv的时候,强制df.read_csv(‘xx.csv’,low_memory = False)
7260

被折叠的 条评论
为什么被折叠?



