腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
提高
pandas
数据
帧
的
入库
和
过滤
效率
?
、
问题/问题 我喜欢
过滤
/减少轨迹
数据
,只保留每个给定
的
方块大小
的
第一次出现。 下面我有一个例子,它可以工作,但对于我正在查看
的
数据
大小(~100_000 id
和
更多
的
时间步长)来说太慢了。所以我
的
问题是
如何
有效地做到这一点,也许更短
和
更干净? 代码示例 在这个例子中,
过滤
器只删除一行(参见最后一步,索引"1")。另外,最终结果
的</e
浏览 34
提问于2021-01-16
得票数 2
回答已采纳
1
回答
我应该从变量资源管理器中删除不必要
的
变量吗?
、
、
我看过,但我还没有找到任何关于Python
的
建议,特别是关于使用Spyder控制台
的
建议。然后,例如,将所有文件连接到一个
数据
帧
中: df = pd.read_csv(filenameindex_col=None, he
浏览 15
提问于2021-06-10
得票数 0
3
回答
如何
将
数据
帧
命名为组中第一次出现
的
函数
、
如何
在
数据
帧
上循环并创建新
的
数据
帧
,以模式命名并仅包含该模式。例如,对于像这样
的
数据
帧
: df= pd.DataFrame({'X': ['hello', 'hi', 'hello', 'salut','hi', 'hi',
浏览 46
提问于2020-04-23
得票数 0
回答已采纳
1
回答
如何
使用高阶函数(例如lapply或map)而不是for-循环来
过滤
基于特定索引
的
数据
帧
列表?
、
、
、
正如主题所建议
的
,
如何
用lapply/map/etc编写以下操作以
提高
R
的
效率
?for(i in 1:length(tbl)){} 其基本思想是从列表
的
每个元素(
数据
帧
)中
过滤
第7列,这样输出只能给出在所有
数据
帧
的
第7列中容纳10或更大
的
浏览 2
提问于2022-03-17
得票数 0
回答已采纳
1
回答
在pyspark上运行python库
的
速度会加快吗?
、
、
当我运行python库如
pandas
或scikit learn时,我试着通读并理解spark中
的
加速是从哪里来
的
,但我没有看到任何特别有用
的
东西。如果我可以在不使用pyspark
数据
帧
的
情况下获得相同
的
加速比,我可以只使用
pandas
部署代码,它
的
性能大致相同吗?我想我
的
问题是: 如果我有可用
的
pandas
代码,为了
提高
效率
,我
浏览 2
提问于2018-06-22
得票数 0
1
回答
在Dask中使用尚未实现
的
Pandas
函数
、
、
、
、
我相信在使用Dask
数据
帧
时,我在Dask教程中看到了一个关于
如何
使用Dask框架中尚未实现
的
Pandas
函数
的
建议,但我似乎看错了地方。例如,我想使用
Pandas
函数'ewm‘。作为一种变通方法,我将Dask
数据
帧
转换为
Pandas
数据
帧
,在
Pandas
数据
帧
上运行ewm,然后将它们转换回Dask,以便以后进行更多内
浏览 10
提问于2019-06-02
得票数 1
回答已采纳
3
回答
如何
将以下JSON转换为所需
的
Pandas
Dataframe?
、
、
"RSI": "75.3214" "2021-04-30": { }0 2021-05-24 75.13542 2021-05-14 78.1510
pandas
默认
的
数据
帧<
浏览 0
提问于2021-05-25
得票数 0
1
回答
SparseSeries列表
的
pandas
内存使用情况
、
、
、
我正在尝试从一个稀疏
的
numpy矩阵创建一个SparseSeries列表。创建lil_matrix很快,并且不消耗大量内存(实际上,我
的
维度更多
的
是数百万,即1500万个样本
和
400万个特征)。但这个解决方案似乎也消耗了我所有的内存,冻结了我
的
电脑。从表面上看,熊猫SparseSeries并不是真的稀疏,还是我做错了什么?最终目标是在此基础上创建一个SparseDataFrame (就像在我提到
的
其他主题中一样)。from scipy.sparse import lil_matrix,
浏览 1
提问于2015-05-21
得票数 1
3
回答
有没有办法在python中加速处理大型CSV和
数据
帧
?
、
、
、
我正在处理一些大小在1 1Gb到2 1Gb之间
的
CSV文件。仅将文件加载到
pandas
数据
帧
就需要20-30分钟,而我执行
的
每个操作都需要20-30分钟,例如按列名
过滤
数据
帧
,打印dataframe.head()等。我用
的
是2019 Macbook Pro,但我想其他设备也是一样
的
。有什么方法可以让我工作得更有
效率
吗? 提前感谢您<
浏览 0
提问于2021-09-12
得票数 2
2
回答
存储、加载
和
写入
、
、
、
、
我有一个很大
的
python值字典(大约50 GB),并将其存储为JSON文件。当涉及到打开文件
和
写入文件时,我遇到了
效率
问题。我知道您可以使用ijson高效地读取文件,但是我
如何
高效地对其进行写入呢?任何帮
浏览 1
提问于2018-12-25
得票数 6
1
回答
循环中
的
多个
Pandas
排序操作--更好
的
优化
和
性能
、
、
、
、
但是,我希望
提高
代码
的
性能
和
效率
。代码中
的
import
pandas
as pd df.loc[indx] = matrix_computed.T
数据</em
浏览 0
提问于2020-09-09
得票数 4
回答已采纳
1
回答
Pandas
-连接多个名称不同但
数据
类型相同
的
excel文件
、
、
我想将一个特定
的
工作表连接到
pandas
DataFrame中(所有工作表
的
名称都相同)。我遇到
的
问题是,每个工作表中
的
列名称并不完全相同。我使用
pandas
编写了一段代码,但它
的
工作方式是将所有值连接到
pandas
数据
框中
的
同一列中,但基于列
的
名称。所以举个例子:有时我有一列叫做: FgsNr,有时叫做FgNr --两列中
的
数据
类型
和
含义完全相
浏览 29
提问于2021-08-10
得票数 0
3
回答
数据
帧
比较
、
、
我有一个工作
的
强力嵌套
的
循环解决方案,用于比较两个
数据
帧
并得到一个工作
的
解决方案。我想要更有
效率
。假设我在下面的示例中有两个
数据
帧
。
如何
将df2中
的
所有
数据
(作为字符串)附加到df1不等于df2
的
df1中。import
pandas
as pddf1=pd.DataFrame({'Col1' : [
浏览 36
提问于2018-01-05
得票数 0
回答已采纳
1
回答
如何
查找字符串是否在
数据
帧
的
特定列
的
列表中?
、
我有两个大
的
数据
帧
要相互比较。我对其中一列执行了.split(" ")操作,并将结果放入
数据
帧
的
新列中。现在,我想检查并查看新列中是否存在值,而不是使用原始列中
的
.contains(),以避免在单词中提取该值。编辑
浏览 1
提问于2020-03-10
得票数 0
1
回答
我可以同时使用两个图像
数据
集训练CNN模型吗
、
、
、
、
我想用两个图像
数据
集同时训练一个CNN模型。1类:火灾2类:非火灾Dataset2(gray_scale-imagesize(120,120,1))->class-1:Fire 2类:非火灾 模型输出:Fire(类)或Non_Fire(类) 我
的
数据
集链接,其中使用
的
两个
数据
集是非图像
数据
,因此我无法理解
如何
将此代码应用于我自己
的
问题。**谁能帮助我
如何
使用以下示例代码在我
的
两个
数据
集上运行f
浏览 116
提问于2020-11-27
得票数 1
2
回答
在没有循环
的
情况下从
pandas
数据
帧
构建频率字典
、
、
、
、
我需要从一个
pandas
系列(来自下面的dataframe中
的
'amino_acid‘列)创建一个频率字典,它还为字典中
的
每个条目添加一个相邻
的
行(来自'templates’列)。,我目前迭代
数据
帧
的
方法似乎
效率
很低,甚至是反模式。我
如何
提高
效率
/使用最佳实践来实现这一点?我目前
的
方法是: sequence_counts = {} seqs = lis
浏览 14
提问于2019-06-24
得票数 0
回答已采纳
2
回答
列子集
和
过滤
器
Pandas
、
如何
在一个命令中
过滤
Pandas
数据
帧
中
的
行并仅获取
pandas
数据
帧
中
的
列
的
子集。我正在试着应用像这样
的
东西...谢谢。
浏览 0
提问于2015-10-02
得票数 17
回答已采纳
3
回答
在dataframe中复制x次行-
提高
性能
、
、
我正在寻找复制
数据
帧
行
的
最有效
的
解决方案。每一行都应该复制x次,其中x对于每一行都是唯一
的
。假设这是我给定
的
数据
帧
:|----|-------|| b | 2 |因此,
数据
帧
应该如下所示,,但对于具有数千行
的
大型
数据
帧
来说
效率
不是很高。由于每
浏览 1
提问于2020-08-24
得票数 4
1
回答
在azure ML中
过滤
TabularDataset
、
、
、
、
我
的
数据
集是巨大
的
。无论
如何
,我会
过滤
tabularDataset中
的
数据
,而不是转换为
pandas
数据
帧
。我使用下面的代码来读取
数据
。由于
数据
量巨大,
pandas
数据
帧
正在耗尽内存。我不需要将完整
的
数据
加载到程序中。有没有办法在转换为
pandas
数据
框之前
浏览 69
提问于2021-01-06
得票数 1
1
回答
Dask: DataFrame计算耗时太长
、
、
我从一个大约50K行
和
5列
的
Pandas
数据
帧
创建了一个Dask
数据
帧
:然后我将一堆列(~30)添加到dataframe中,并尝试将其转换回
Pandas
dataframe:我查看了文档,如果我没有指定num_workers,它将默认使用我
的
浏览 1
提问于2017-07-28
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何提高销售质检的效率和准确性?
AI原创:如何提高软件开发的效率和质量
如何实现多节点数据同步,提高传输可靠性和整体效率?
拼多多外包客服如何提高售后处理的效率和质量?
数字孪生如何提高能源系统的效率和可靠性
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券