概述
和dataframe去重不同,当需要的是那些重复数据而不是非重复数据是,就想要将重复数据提取出来时,或者去除那些非重复数据。
主要思路:
1. 采用drop_duplicates对数据去两次重,一次将重复数据全部去除(keep=False),另一次将重复数据保留一个(keep='first);
2. 上一步我们得到了两类去重数据,分别是含有原本重复的数据(a)和不含有原本重复的数据(b),b是a的真子集,然后就可以用作差集的思想(https://blog.csdn.net/jasonwang_/article/details/78797458),即a-b,得到我们需要的原本重复的数据。
示例代码如下:
>>>import pandas as pd
>>>data={'state':[1,1,2,2,1,2,2],'pop':['a','b','c','d','b','c','d']}
>>>frame=pd.DataFrame(data)
>>>frame
pop state
0 a 1
1 b 1
2 c 2
3 d 2
4 b 1
5 c 2
6 d 2
>>>a = frame.drop_duplicates(subset=['pop'],keep='first')
>>>a
pop state
0 a 1
1 b 1
2 c 2
3 d 2
>>>b = frame.drop_duplicates(subset=['pop'],keep=False)
>>>b
pop state
0 a 1
>>>a.append(b).drop_duplicates(subset=['pop'],keep=False)
pop state
1 b 1
2 c 2
3 d 2
最后得到的三行数据就是重复的数据。
转载于:https://www.cnblogs.com/fengguozhuying/p/9140184.html
最后
以上就是酷酷睫毛为你收集整理的dateframe去重的全部内容,希望文章能够帮你解决dateframe去重所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复