Python中高效实现数据去重的多种方法

部署运行你感兴趣的模型镜像

### 使用集合去重

集合是Python中用于存储唯一元素的数据结构。利用集合的特性可以快速去除重复数据。

```python

def deduplicate_with_set(data):

return list(set(data))

# 示例

original_list = [1, 2, 2, 3, 4, 4, 5]

result = deduplicate_with_set(original_list)

print(result) # 输出:[1, 2, 3, 4, 5]

```

优点:代码简洁,执行效率高。

缺点:不保持原始顺序。

### 使用字典键去重

字典的键具有唯一性,可以利用这一特性实现去重,同时保持顺序。

```python

def deduplicate_with_dict(data):

return list(dict.fromkeys(data))

# 示例

original_list = [1, 2, 2, 3, 4, 4, 5]

result = deduplicate_with_dict(original_list)

print(result) # 输出:[1, 2, 3, 4, 5]

```

优点:保持原始顺序,效率较高。

缺点:仅适用于可哈希的数据类型。

### 使用列表推导式去重

通过遍历列表并检查元素是否已存在于新列表中来实现去重。

```python

def deduplicate_with_list_comprehension(data):

seen = []

return [x for x in data if not (x in seen or seen.append(x))]

# 示例

original_list = [1, 2, 2, 3, 4, 4, 5]

result = deduplicate_with_list_comprehension(original_list)

print(result) # 输出:[1, 2, 3, 4, 5]

```

优点:保持原始顺序。

缺点:效率较低,适用于小规模数据。

### 使用pandas库去重

对于大规模数据处理,pandas库提供了高效的去重方法。

```python

import pandas as pd

def deduplicate_with_pandas(data):

series = pd.Series(data)

return series.drop_duplicates().tolist()

# 示例

original_list = [1, 2, 2, 3, 4, 4, 5]

result = deduplicate_with_pandas(original_list)

print(result) # 输出:[1, 2, 3, 4, 5]

```

优点:适用于大规模数据,功能丰富。

缺点:需要安装pandas库。

### 使用itertools.groupby去重

对于已排序的数据,可以使用itertools.groupby方法去重。

```python

from itertools import groupby

def deduplicate_with_groupby(data):

return [key for key, _ in groupby(data)]

# 示例

original_list = [1, 2, 2, 3, 4, 4, 5]

result = deduplicate_with_groupby(original_list)

print(result) # 输出:[1, 2, 3, 4, 5]

```

优点:适用于已排序数据,效率高。

缺点:要求数据预先排序。

### 使用numpy库去重

对于数值型数据,numpy库提供了高效的去重方法。

```python

import numpy as np

def deduplicate_with_numpy(data):

return np.unique(data).tolist()

# 示例

original_list = [1, 2, 2, 3, 4, 4, 5]

result = deduplicate_with_numpy(original_list)

print(result) # 输出:[1, 2, 3, 4, 5]

```

优点:数值数据处理效率高。

缺点:仅适用于数值数据,需要安装numpy库。

### 性能比较

在选择去重方法时,需要考虑数据规模和性能要求:

- 小规模数据:列表推导式或集合去重

- 大规模数据:pandas或numpy去重

- 需要保持顺序:字典键去重

- 已排序数据:itertools.groupby去重

### 总结

Python提供了多种数据去重方法,每种方法都有其适用场景。开发者应根据具体需求选择最合适的去重方式,平衡性能和功能需求。

您可能感兴趣的与本文相关的镜像

Python3.10

Python3.10

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

源码地址: https://pan.quark.cn/s/d1f41682e390 miyoubiAuto 米游社每日米游币自动化Python脚本(务必使用Python3) 8更新:更换cookie的获取地址 注意:禁止在B站、贴吧、或各大论坛大肆传播! 作者已退游,项目不维护了。 如果有能力的可以pr修复。 小引一波 推荐关注几个非常可爱有趣的女孩! 欢迎B站搜索: @嘉然今天吃什么 @向晚大魔王 @乃琳Queen @贝拉kira 第三方库 食用方法 下载源码 在Global.py中设置米游社Cookie 运行myb.py 本地第一次运行时会自动生产一个文件储存cookie,请勿删除 当前仅支持单个账号! 获取Cookie方法 浏览器无痕模式打开 http://user.mihoyo.com/ ,登录账号 按,打开,找到并点击 按刷新页面,按下图复制 Cookie: How to get mys cookie 当触发时,可尝试按关闭,然后再次刷新页面,最后复制 Cookie。 也可以使用另一种方法: 复制代码 浏览器无痕模式打开 http://user.mihoyo.com/ ,登录账号 按,打开,找到并点击 控制台粘贴代码并运行,获得类似的输出信息 部分即为所需复制的 Cookie,点击确定复制 部署方法--腾讯云函数版(推荐! ) 下载项目源码和压缩包 进入项目文件夹打开命令行执行以下命令 xxxxxxx为通过上面方式或取得米游社cookie 一定要用双引号包裹!! 例如: png 复制返回内容(包括括号) 例如: QQ截图20210505031552.png 登录腾讯云函数官网 选择函数服务-新建-自定义创建 函数名称随意-地区随意-运行环境Python3....
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值