腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Dask map_partitions将日期和时间从两列转换为单个datetime列
、
、
、
、
如何转换此类型
的
两个日期和时间列:1/01/1990 10553/01/1990 10555/01/1990 1729 是否
使用
dask map_partitions转换为单个datetime列(例如,格式=‘%H:%M:%S%Y-%m-%d’)?
浏览 3
提问于2020-05-13
得票数 2
2
回答
发生这种情况是因为存在NaN吗?
、
我有一个浮点数列表,当我尝试将其转换为序列或
数据
帧
时 code000002.SZ 1.771655 000004.SZ 2.649862only use .str accessor with string values (i.e. inferred_type is 'string', 'unicode' or 'mixed') 这是因为我
的
列表中有一个我不想删除包含NaN
的
行,只是将它们留在那里
浏览 12
提问于2020-12-23
得票数 0
1
回答
在spark
数据
帧
上
实现pythonic统计
函数
、
、
、
我在spark
数据
帧
中有非常大
的
数据
集,它们分布在节点
上
。我可以
使用
spark库pyspark.sql.functions进行简单
的
统计,
如
mean、stdev、skewness、kurtosis等。但为了做到这一点,我必须将spark
数据
帧
转换为
pandas
,这意味着将
数据
强制到主节点中,如下所示: import scipy.stats as stats
pandas</
浏览 30
提问于2020-09-13
得票数 0
2
回答
Python
pandas
:何时
使用
pd.(
函数
名),以及何时
使用
(
数据
帧
的
名称).function
、
我正在练习python
pandas
的
使用
,我有一个问题如下:df.groupby()pd.to_numeric() 谁能告诉我,在决定何时
使用
第一种格式和何时<e
浏览 2
提问于2017-06-23
得票数 2
1
回答
如何
使用
dask dataframe
中
的
rank
函数
?
、
、
、
、
如
何在
dask
数据
帧
上
使用
pandas
的
pd.rank()
函数
。或者,在dask中有没有其他
的
内置
函数
可以做同样
的
事情。
浏览 11
提问于2019-10-23
得票数 1
回答已采纳
1
回答
从excel创建Dataframe
、
我正在尝试导入excel并
使用
pandas
read_excel
函数
创建
数据
帧
。谢谢!
浏览 0
提问于2020-03-21
得票数 0
2
回答
对
pandas
数据
帧
中
的
每个值进行哈希处理
、
、
在python
中
,我正在尝试找到最快
的
方法来散列
pandas
数据
帧
中
的
每个值。我知道任何字符串都可以
使用
以下命令进行散列:但是如
何在
pandas
数据
框
的
每个元素
上
应用这个
函数
呢? 这可能是一件非常简单
的
事情,但我刚刚开始
使用
python。
浏览 0
提问于2015-05-10
得票数 13
回答已采纳
2
回答
如何
使用
应用于每行多个切片
的
函数
来转换
pandas
中
的
DataFrame?
、
我想将
函数
f应用于
pandas
DataFrame
的
每一行
中
的
许多切片。例如,DataFrame df将如下所示:因此,我有一个2行乘49列
的
数据
帧
,并且我
的
函数
需要应用于两行
中
7个
数据
点
的
每个后续切片,以便结果<
浏览 9
提问于2014-11-16
得票数 1
1
回答
在Dask中
使用
尚未实现
的
Pandas
函数
、
、
、
、
我相信在
使用
Dask
数据
帧
时,我在Dask教程中看到了一个关于如何
使用
Dask框架
中
尚未实现
的
Pandas
函数
的
建议,但我似乎看错了地方。例如,我想
使用
Pandas
函数
'ewm‘。作为一种变通方法,我将Dask
数据
帧
转换为
Pandas
数据
帧
,在
Pandas
数
浏览 10
提问于2019-06-02
得票数 1
回答已采纳
1
回答
Spark
中
的
用户定义
函数
(UDF)是否在集群工作节点
上
并行运行?
、
假设我在python
中
创建了一个
函数
,所以将一个数字求幂为2: def squared(s):%sql select id, squaredWith
浏览 33
提问于2019-10-10
得票数 0
回答已采纳
2
回答
AttributeError:“function”对象在
pandas
中
没有属性“”bar“”
、
我有一个
pandas
数据
帧
,它是
pandas
数据
帧
类型,如下所示但是,当我试图在这个
数据
框上
使用
任何绘图
函数
时,比如条形图,它会给出如下错误; AttributeError: 'function' object has no attribute 'bar
浏览 1
提问于2016-04-26
得票数 1
1
回答
为什么SimpleImputer
的
fit_transform在google colab
中
不能用于
数据
帧
?
、
、
=np.nan, strategy='most_frequent') weather_test = imp.fit_transform(weather_test) 当weather_test是一个熊猫
数据
帧
时,上面的代码在google colab
中
抛出错误。
浏览 15
提问于2020-01-09
得票数 0
1
回答
与编辑器对Python
的
Power查询不同
的
表
、
、
我需要转换一个
数据
转换程序从编辑器Power Query到Python。我不是很擅长编辑能力查询。我有一个包含30多列
的
表,任务如下:当我这样做
的
时候,它占据了哪一行?第一个?最后一个?是随机
的
吗?我如何将其转换为Python
Pandas
,以确保具有相同
的
数据
? 感谢您
的
答复
浏览 2
提问于2021-11-24
得票数 0
1
回答
如
何在
函数
开头
的
样式
中
呈现
数据
帧
?
使用
jupyter notebook,这段代码 import
pandas
as pddf 给出此样式
的
输出 ? 如果我把它放在一个
函数
中
, def prepare(): df = pd.DataFrame([[71,62,13], [75,76,77]],columns=li
浏览 10
提问于2021-07-10
得票数 0
1
回答
如何从TensorFlow/OpenCV对象检测检测到
的
每个对象触发JSON或pd Dataframe报告
、
、
、
、
我正在构建一个python应用程序,它
使用
AI来扫描OpenCV
的
实时提要,并跟踪带或不带面具的人。我想问,是否有一种好方法可以为提要中跟踪
的
每个唯一实体发送唯一
的
数据
帧
,以便在
数据
库
中
创建每个人进入
帧
时被跟踪
的
程序性条目,以及他们是否戴着口罩。 有什么建议吗?
浏览 15
提问于2021-04-26
得票数 0
2
回答
从引号
中
解开.csv行
、
、
.csv文件如下所示"a, b, c"我想解开引号
中
的
行以正确读取
pandas
/Python
中
的
文件。
如
R
中
的
重复问题所述,可以读取.csv
数据
两次: 1)展开辅助
数据
帧
的
第一列
中
的
数据
,以及2)调用辅助
数据</e
浏览 0
提问于2018-12-15
得票数 1
1
回答
如何
使用
gzip模块打开csv文件
、
、
我希望读入一个与我
的
python脚本位于同一目录
中
的
.csv.gz文件,只
使用
gzip和
pandas
模块。到目前为止,import
pandas
as pd如
何在
不
使用
csv模块
的
情况下将此文件转换/读取为
数据
帧
,
如
类似回答
的
浏览 1
提问于2021-03-16
得票数 2
1
回答
火花放电法toPandas内部
、
、
、
topandas是如
何在
内部工作
的
。我知道星火DataFrame可以
使用
topandas方法转换为
Pandas
DataFrame作为spark_df.toPandas。在触发方法topandas之后,它是将所有
数据
提取到驱动程序并转换成熊猫
数据
帧
,还是在工作人员中进行转换,并将熊猫
数据
在本地创建到工作节点?
浏览 2
提问于2020-10-31
得票数 0
回答已采纳
1
回答
如何用Shapely和Dask将坐标列转换为点列?
、
、
、
我
的
数据
是一个巨大
的
数据
帧
,看起来像这样(这是
数据
帧
的
头部) import
pandas
4 100mN26840E43345 4334550 2684050 -1 我正在
使用
~\App
浏览 18
提问于2019-06-27
得票数 0
1
回答
如
何在
spark中
使用
pandas
split-apply-combine风格策略和scala api?
、
、
、
我有一个scala
函数
,它接受一个spark dataframe并返回一个单值,也就是说两个值。这个
函数
很复杂,
使用
在DataFrame类
中
定义
的
聚合,调用其他java库,并且不能用SQL表达。然后,我想返回一个新
的
数据
帧
,其中包含每个组
的
一行和两列,一列包含groupby值,另一列包含结果。
使用
PandasUDF这将是一个相对简单
的
任务,但是我不知道如
何在
Scala
中<
浏览 28
提问于2020-04-22
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用 Pandas resample填补时间序列数据中的空白
如何在万亿级别规模的数据量上使用 Spark?
如何在万亿级别规模的数据量上使用Spark
如何只用一行代码让 Pandas 加速四倍?
如何只用一行代码让Pandas加速四倍?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券