List去重

本文介绍了五种Python中去除列表重复元素的方法,并对比了各种方法的特点及效率。其中包括使用字典.fromkeys()、集合(set)、itertools.groupby、索引排序等方法实现列表去重,同时保持或改变元素原有顺序。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近任务上有去重,随手翻了下发现有不少好方法啊~

记录一下,转自http://yxmhero1989.blog.163.com/blog/static/112157956201381443244790/:


一.{}.fromkeys(list).keys()

list2 ={}.fromkeys(list1).keys()

二.set

list2 = list(set(list1))

三.itertools.grouby
ids = [1,4,3,3,4,2,3,4,5,6,1]
ids.sort()
it = itertools.groupby(ids)
 for k, g in it:
    print k

四,笨方法

ids = [1,2,3,3,4,2,3,4,5,6,1]
news_ids = []
for id in ids:
    if id not in news_ids:
        news_ids.append(id)

print news_ids

这四种都有个特点,去重后元素排序变了,效率 据说第一种比第二种快一点


五.索引再次排序 这种可以去重并且保持元素顺序

#要结果是[1, 4, 3, 2, 5, 6]  不要[1, 2, 3, 4, 5, 6]
ids = [1,4,3,3,4,2,3,4,5,6,1]
news_ids = list(set(ids))
news_ids.sort(key=ids.index)
print news_ids #[1, 4, 3, 2, 5, 6]

六:Reduce

ids = [1,4,3,3,4,2,3,4,5,6,1]
func = lambda x,y:x if y in x else x + [y]
print reduce(func, [[], ] + ids)#[1, 4, 3, 2, 5, 6]


参考:

http://the5fire.com/python-remove-duplicates-in-list.html

http://xcw31.diandian.com/post/2012-11-28/40042801718

http://www.benben.cc/blog/?p=386
http://blog.youkuaiyun.com/zhengnz/article/details/6265282


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值