我是靠谱客的博主 酷酷睫毛,最近开发中收集的这篇文章主要介绍dateframe去重,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

和dataframe去重不同,当需要的是那些重复数据而不是非重复数据是,就想要将重复数据提取出来时,或者去除那些非重复数据。

主要思路:

1. 采用drop_duplicates对数据去两次重,一次将重复数据全部去除(keep=False),另一次将重复数据保留一个(keep='first);

2. 上一步我们得到了两类去重数据,分别是含有原本重复的数据(a)和不含有原本重复的数据(b),b是a的真子集,然后就可以用作差集的思想(https://blog.csdn.net/jasonwang_/article/details/78797458),即a-b,得到我们需要的原本重复的数据。

示例代码如下:

 

>>>import pandas as pd  
>>>data={'state':[1,1,2,2,1,2,2],'pop':['a','b','c','d','b','c','d']}
>>>frame=pd.DataFrame(data)  
>>>frame
	pop	state
0	a	1
1	b	1
2	c	2
3	d	2
4	b	1
5	c	2
6	d	2
>>>a = frame.drop_duplicates(subset=['pop'],keep='first')
>>>a
	pop	state
0	a	1
1	b	1
2	c	2
3	d	2
>>>b = frame.drop_duplicates(subset=['pop'],keep=False)
>>>b
	pop	state
0	a	1
>>>a.append(b).drop_duplicates(subset=['pop'],keep=False)
	pop	state
1	b	1
2	c	2
3	d	2

最后得到的三行数据就是重复的数据。

转载于:https://www.cnblogs.com/fengguozhuying/p/9140184.html

最后

以上就是酷酷睫毛为你收集整理的dateframe去重的全部内容,希望文章能够帮你解决dateframe去重所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(36)

评论列表共有 0 条评论

立即
投稿
返回
顶部