今
日
鸡
汤
有客开青眼,无人问落花。
大家好,我是皮皮。
前几天在Python最强王者交流群【巭孬🕷】问了一个问题,一起来看看吧。对5亿行数据去重,各位有没有啥方法。。。内存直接爆了。全是这样的数据,5亿行,按行去重。
这里【隔壁😼山楂】给了一个思路:如下所示:
后来【郑煜哲·Xiaopang】给了个思路,全tuple后,set。后来粉丝用merge逐一并集 解决了这个问题。
原来是用concat全部连接起来,再drop_duplicates,直接爆了。
刚才的是去重,算是解决了。现在又有个新问题,下一篇文章我们一起来看看吧。
大家好,我是皮皮。这篇文章主要盘点了一个大数据去重的问题,文中针对该问题,给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。
本文分享自 Python爬虫与数据挖掘 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!