腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9924)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
drop_
duplicates
后unionByName
我正在尝试堆叠两个数据文件(使用unionByName()),然后删除重复条目(使用drop_
duplicates
())。因为,如果是这样的话,在应用drop_
duplicates
()时,df1的行将始终被保留,这就是我想要的行为。
浏览 17
修改于2022-06-28
得票数 1
1
回答
如何实现drop_
duplicates
df.time: if y == y: df1 = df.drop_
duplicates
subset = ['time', 'Variable', 'Value'], keep=False) df1 = df.drop_
duplicates
浏览 2
修改于2017-06-07
得票数 0
回答已采纳
3
回答
df.drop_
duplicates
python
3246 2012-12-12 23:45:21 321 企图1:-3 2012-11-02 16:08:07 企图2:- df = df.drop_
duplicates
浏览 0
提问于2020-12-24
得票数 1
回答已采纳
1
回答
Apache Nifi -“转换
duplicates
”可能重复
请在我的流量下面找到, 注意ConvertJSONToSQL处理器,它接收5403并发送10804。有人能解释一下这里发生了什么吗?我希望看到输入和输出计数是相同的,就像CovertAvroToJSON处理器。这个增加的数量将直接影响到我的最终输出表,在那里我可以看到所有记录的副本。更新2/28我已经取出SplitAvro处理器和记录填充没有副本
浏览 3
修改于2017-02-28
得票数 1
回答已采纳
3
回答
Python / Pandas - drop_
duplicates
ValueError
当我运行:df=df.drop_
duplicates
()时,我得到以下错误:如果我运行一个df.loc[:10].drop_
duplicates
(),它已经有错误了 有人知道是什么导致的吗?
浏览 0
修改于2017-08-24
得票数 2
回答已采纳
1
回答
Pandas drop_
duplicates
()挂在jupyter-notebook -提高drop_
duplicates
()性能的方法?
根据评论会话中的建议进行了编辑,目前我已经将问题范围缩小到drop_
duplicates
(),这会导致函数永远运行。删除drop_
duplicates
()后,函数可以在很短的时间内转到步骤df_output.to_csv(),但到此为止。我怀疑是复制品导致了这个问题。熊猫专家有什么建议吗?transform(lambda x: '|'.join(x.astype(str))) df_output = df_rec[['userID', 'recommendedProducts']].drop
浏览 26
修改于2019-09-15
得票数 0
回答已采纳
2
回答
重复项,drop_
duplicates
故障
当我使用biopandas包导入数据帧时,我无法让duplicated/drop_
duplicates
丢弃我的副本。3148 rows × 8 columns 我想使用以下命令在重复范围内检查它: df2 = df[df.duplicated(['col3','col4','col5'])] # show me
duplicates
hatp 7 ATOM NH1 ARG 93 11.793 5.843 63.538 hatp 正如您所看到的,它没有遵循d
浏览 17
修改于2020-05-31
得票数 0
3
回答
drop.
duplicates
()改变数据?
|09-02-2022| F | A | |27-02-2022| M | B |final_df = final_df[final_df['data_liquidacao'].dt.date > today] teste = final_df.drop_
duplicates
浏览 6
修改于2022-05-04
得票数 0
1
回答
Drop_
duplicates
未能准确匹配?
我正在扫描导入数据中的重复行,并使用pd.duplicated和pd.drop_
duplicates
查找和删除重复行。我有一组似乎完全重复的行。没有被drop_
duplicates
标记的两行的示例:Site Name
浏览 1
修改于2020-05-26
得票数 0
2
回答
使用Pandas.remove_
duplicates
()时出错
我试图通过只考虑某个子集来使用Pandas.drop_
duplicates
(),但得到了错误的KeyError: Index(['days'], dtype='object') 索引如下:id, event_descriptionattribute1, attribute 2, attribute 3, days, days_supply, days_equivalent 我想忽略属性2和属性3,所以我运行了以下命令 df = df.drop_
duplicates
Traceback (most recent call
浏览 59
提问于2019-09-25
得票数 1
回答已采纳
2
回答
Pandas:带条件的drop_
duplicates
有没有办法把drop_
duplicates
和conditions一起使用?Customer_Id Customer_Name2 NaN Mark不幸的是,我不能为此使用drop_
duplicates
浏览 1
修改于2013-11-19
得票数 2
2
回答
有条件的drop_
duplicates
例如,我的数据文件是:3 43 5no 8如果df['A']是一个数字,我想要drop_
duplicates
()。
浏览 2
提问于2015-10-20
得票数 1
回答已采纳
2
回答
Pandas: drop_
duplicates
不能正常工作
对于以下系列,drop_
duplicates
无法正常工作:8672.08672.08670.08670.08670.08672.08672.08672.08672.08670.08670.0通过使用drop_
duplicates
keep='first'),它应该返回4个值:8670.08670.0 但实际上
浏览 0
修改于2018-05-17
得票数 0
3
回答
用python编写函数remove_
duplicates
编写一个名为remove_
duplicates
的函数,该函数将接受一个名为string的参数。此字符串输入将只包含a-z之间的字符。例如: string =
浏览 22
修改于2017-03-17
得票数 0
5
回答
最快的"Get
Duplicates
“SQL脚本
下面是一个在具有数十万条记录的数据集中获取重复项的快速SQL示例。我通常使用类似这样的东西:WHERE 1 < (SELECT count(afield1) FROM afile b WHERE a.afield1 = b.afield1);
浏览 1
修改于2012-08-21
得票数 43
回答已采纳
1
回答
理解pandas.MultiIndex.has_
duplicates
属性
虽然这可以使用len(pandas.unique(my_index)) < len(my_index)完成,但我想知道是否可以将MultiIndex.has_
duplicates
属性用于此目的。(u'x', u'out', u'z', 12, u'y', u'in', u'z', 144)]print idx.has_
duplicates
浏览 2
提问于2014-12-14
得票数 2
回答已采纳
1
回答
SQLITE select mask,how to include
duplicates
as weel
我有一个类似这样的查询,我想返回in案例中的所有值以及匹配的行数。 从用户中选择id,name,age from USERS WHERE id IN (1,75,75); 返回 1|约翰|25 75|山姆|30 但是我想要的是 1|约翰|25 75|山姆|30 75|山姆|30 这样的事情在sql中是可能的吗?如果你们对此有解决方案,我将不胜感激。 谢谢
浏览 14
修改于2020-06-18
得票数 0
回答已采纳
1
回答
熊猫drop_
duplicates
掉了太多行了
import pandas as pdprint'first_artist', 'duration_ms'])]['track_name'])) # 10904 data.drop_
duplicates
浏览 4
提问于2022-05-30
得票数 0
2
回答
火花放电drop_
duplicates
(keep=False)
我需要一个用于潘达斯 drop_
duplicates
(keep=False)的解决方案。不幸的是,keep=False选项无法在pyspark中使用..。'B': [3, 3, 5],df = pd.DataFrame(data=df_data) df = df.drop_
duplicates
浏览 1
提问于2019-01-09
得票数 1
回答已采纳
2
回答
drop_
duplicates
()对熊猫不起作用
下面是我的数据我试图删除重复的标题行使用但是drop_
duplicates
()函数在这种情况下不起作用。
浏览 0
提问于2018-02-23
得票数 -3
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券