drop_duplicates()去重
去重在应用当中经常碰到,特别是数据库操作时,因为脏写造成重复数据,重复数据,在进行数据统计时,会严重影响数据的准确性,因此怎么去重? pandas提供了优雅的去复方法,drop_duplicates()
data.drop_duplicates(subset=[列名],keep='first/last/false',inplace=True/False)
- subset 指定检测重复数据的列名,默认为所有列
- keep 指定去重去保留的数据项,first 去掉除第一个外的所有重复项 last 去掉除最后一个外的重复项 , False 不保留重复项,默认为first
- inplace True在原有的DataFrame上操作,类似于传址修改,False复制一个副本去重,默认False
下面咱们通过代码,对该方法进行解释
以下代码截图来自Jupyter中文集成版(Python整合版)
https://github.com/DaiMaBang/Jupyter
https://github.com/DaiMaBang/Jupyter

不传递任何参数,直接根据默认值去重

指定按'sex'列进行云重,这样,sex为男和女的,各自保留一行
本文详细介绍了Pandas库中drop_duplicates()函数如何高效去重,包括参数说明、使用示例以及在实际数据处理中的应用场景。重点讲解了subset、keep和inplace参数的选择与作用。
768

被折叠的 条评论
为什么被折叠?



