腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7787)
视频
沙龙
1
回答
.
when
-
Fill.na
位置
更改
Pyspark
条件
结果
、
、
、
、
对于这个非常普遍的问题,我很抱歉:df2 = df.withColumn('A', F.
when
( (F.col('BtoPandas()df2.loc[df2['X'] == '2018-12-10'] 但是,如果我将代码的
fill.na</em
浏览 5
提问于2019-11-11
得票数 0
1
回答
Pyspark
:我想手动映射dataframe中某一列的值
(我不确定)df["Col1"] = df["Col1"].map({"Y": 1, "N": 0}) 您能告诉我如何在
Pyspark
中实现这一点吗?
浏览 2
提问于2019-03-31
得票数 0
1
回答
将值添加到新列中,同时循环遍历中的两列。
、
、
、
我想要使用更好的dataframe操作和
pyspark
中的函数来实现这一点。一般情况下,我可以很容易地想到如何对熊猫或蟒蛇这样做,但我还不知道如何在每个给定的月份循环使用if,然后将前三个月的活动状态选择到max(m1、m2、m3)函数中,如果prev月不存在,就会保持边缘
条件
浏览 2
提问于2019-11-12
得票数 1
回答已采纳
2
回答
向
PySpark
数组中添加None
、
、
、
、
我希望创建一个基于现有列有
条件
填充的数组,有时我希望它包含None。下面是一些示例代码:from
pyspark
.sql import SparkSession Row(I
浏览 4
提问于2022-07-01
得票数 1
回答已采纳
1
回答
Pyspark
SQL表达式与作为case语句的
when
()
、
这是可行的:这将失败: .F.
when
(F.col("v1") >0, 2) .other
浏览 66
提问于2019-11-01
得票数 0
回答已采纳
1
回答
查询withColumn火花以添加基于数组的列数据
、
、
、
、
brother bro我想用这个: df_
pyspark
= df_<em
浏览 1
提问于2022-02-09
得票数 1
回答已采纳
2
回答
“DataFrame”对象没有属性“_get_object_id”
、
、
、
'Nan'))] rdd = sc.parallelize(items)df = df.withColumn("col1", func.<e
浏览 1
提问于2019-08-05
得票数 9
回答已采纳
1
回答
PySpark
数据的
条件
聚合
、
、
我试图在
PySpark
数据帧上执行
条件
聚合。+---+---+----+---+
浏览 0
提问于2019-08-28
得票数 0
回答已采纳
3
回答
PySpark
:具有两个
条件
和三个
结果
的withColumn()
、
、
、
、
我正在和Spark和
PySpark
一起工作。我正在尝试实现与以下伪代码等效的
结果
: IF fruit1 == fruit2 THEN 1, ELSE 0.我正在尝试用
PySpark
来做这件事,但是我不确定它的语法。有什么建议吗?我查看了expr(),但无法让它正常工作。请注意,df是一个
pyspark
.sql.dataframe.DataFrame。
浏览 0
提问于2016-10-21
得票数 57
回答已采纳
1
回答
Dataframe上的
Pyspark
列
、
、
我正在尝试根据某些列的值在dataframe上创建一个新列。它在所有情况下都返回null。有人知道这个简单的例子出了什么问题吗? if 'Foo'==1: elif 'Bar' =
浏览 2
提问于2018-09-26
得票数 2
回答已采纳
3
回答
如何修改
pyspark
使用的一行中的一个列值
我想当userid=22650984.How在
pyspark
平台上更新它的价值?谢谢你的帮助。
浏览 8
提问于2018-04-08
得票数 11
回答已采纳
1
回答
在
PySpark
dense_rank()中将空值保留为null
、
||2019-01-01| 10| 2|+----------+-----+----+ 如何
更改
浏览 15
提问于2020-05-14
得票数 1
回答已采纳
0
回答
PySpark
数据帧:根据
条件
同时
更改
两列
、
、
我想知道是否有一种方法可以同时
更改
PySpark
数据帧的两列(或更多列)。现在我正在使用withColumn,但我不知道这是否意味着
条件
将被检查两次(对于大型数据帧来说,这可能太昂贵了)。这段代码主要是检查其他两列(对于同一行)中的值,并在此基础上将两列
更改
为None/null。should_hide_response_udf(col("response_created")) "response_t
浏览 2
提问于2017-06-21
得票数 1
回答已采纳
2
回答
PySpark
动态时语句
、
、
、
根据字符串的值,列名会
更改
。下面是我目前拥有的代码的示例: F.
when
(df.pet == "dog", df.dog_Column) \ .otherwise(None))))dfvalues = ["dog", &
浏览 1
提问于2018-06-20
得票数 3
回答已采纳
1
回答
使用
Pyspark
根据
条件
计算值int之间的差值
、
、
、
、
我有这样的数据: from
pyspark
.context import SparkContextsc =预期
结果
是这样的: ? 最后一个问题是得到“Delta”的总和: ? 下面是我的代码,我无法对其进行调整以获得想要的
结果
: import
pyspark
.sql.functions as Fwindow
浏览 23
提问于2021-01-18
得票数 0
回答已采纳
1
回答
火花复合过滤器,多重
条件
我返回一个dataframe,它有许多带有数值的列,并且我尝试使用多个复合
条件
将这个
结果
集过滤成一个新的、较小的
结果
集。from
pyspark
.sql import functions as f matches = df.filter(f.
when
('df.business') >=0.9 & (f.
when
('df.city') == 1.0) & (f.
when
('street')
浏览 0
提问于2019-01-29
得票数 1
回答已采纳
2
回答
是否有scala火花函数来实现群,然后过滤,然后聚合
、
、
、
、
我需要按州分组,并找出每个薪资范围中有多少项(总共有3个薪资范围),创建一个Dataframe,并根据状态名称对
结果
进行排序。星火有什么功能可以达到这个目的吗?dfWithoutSchema是输入数据 val newDf = dfWithoutSchema.withColumn("set1",
when
($"salary">0 and $"salary" <=5, 1).otherwise(0)).withColumn("set2",
when
($&
浏览 16
提问于2021-12-08
得票数 0
回答已采纳
0
回答
对于SQL Server中的某些
条件
,我希望返回默认值为NULL
、
我在SQL Server中运行下面的SQL查询,当
条件
不满足时,我需要返回默认值‘NULL’。对于一些不符合
条件
的记录,
结果
应该显示为NULL,但是我在NULL.Can的
位置
上得到了一个空格,有人能帮帮忙吗?CASE
WH
浏览 2
提问于2016-07-13
得票数 0
1
回答
SQL > 100 'OR‘
条件
,大小写/何时不返回所需的值
、
我正在编写一个具有许多WHERE
条件
的查询。我在SWITCH子句中使用了where大小写,但
结果
不是我想要的。select * from @tab t (case
when
h1 = @h1and h2 = @h2 then 2 end)
浏览 4
提问于2014-09-02
得票数 1
回答已采纳
1
回答
检查PySaprk列值是否存在于另一个dataframe列值中
、
、
、
、
我试图找出
条件
来检查一个
PySpark
数据文件的值是否存在于另一个
PySpark
数据文件中,如果存在,则提取该值,然后再进行比较。我正在考虑使用一个withColumn()函数执行一个多个
when
()。id | value || hello | 1111 || people | 2222 |d
浏览 12
提问于2022-02-10
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
oracle中如何将一列中的元素按自己需要排列?
如何在CDH集群上部署Python3运行环境及运行Python作业
SQL Server 学习之路(九)
MyBatis框架之SQL映射和动态SQL
一文读懂PySpark数据框
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券