腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
Scala
-
特定
格式
的
GroupBy
列
、
、
Transfer | +---------+-------------------+val df = DF1.
groupBy
如果有其他更好
的
方法来做同样
的
事情,我对此持开放态度。提前谢谢你
浏览 1
提问于2018-08-30
得票数 0
回答已采纳
1
回答
聚合星体数据并根据数组类型
列
中是否存在值进行计数
、
我有一个带有数组类型
列
的
星星之火数据
格式
:root | |-- element: string (containsNull = true)现在,我需要通过"id“聚合此数据,并根据数组中是否存在
特定
值进行计数我想这么做: val aggdata = mydf.
groupBy<
浏览 0
提问于2019-01-31
得票数 1
回答已采纳
3
回答
在
Scala
中,x=> x._1._1意味着什么?
._1表示元组
的
第一个元素,但我不能理解x._1._1表示什么。 val a = b.
groupBy
(x=> x._1._1)
浏览 0
提问于2017-09-21
得票数 1
2
回答
查找具有不同值
的
列
、
、
我
的
dataframe有120个columns.Suppose,我
的
dataframe有下面的结构a 10 1983 19a 10 1983 21b 10 1984 2 我们可以在这里看到id a,value1有不同
的
值我必须为
特定
的
id找到具有不同值
的
列
。是否有任何统计或其他方法来解决这个问题
浏览 2
提问于2016-09-19
得票数 0
回答已采纳
2
回答
火花数据集:数据转换
、
、
我有一个
格式
的
星火数据集-|name |type |cost ||CCCCCCCCCCCCCC|ZZZZZ |1.00|我想把它转换成一个类型
的
对象public class CostPerName { private Ma
浏览 0
提问于2020-06-10
得票数 1
回答已采纳
2
回答
星火中多轴柱
的
改名与优化
、
、
、
我
的
输入数据中有一组
列
,我将基于多个
列
进行旋转。 由我
的
方法生成
的
输出-预期输出头: 到目前为止为了达到我想要
的
结果所做
的
步骤-
scala
>= filtered_data.
groupBy
("salar
浏览 0
提问于2018-03-14
得票数 1
回答已采纳
0
回答
根据spark
scala
中输入
的
字符串date过滤数据帧
、
、
、
我有一个表,其中有一
列
' date‘,日期
格式
为yyyyMMdd。我需要过滤这个dataframe,并返回一个只包含日期大于输入
的
行
的
dataframe,例如: return the all rows where date is greater "20180715“。
scala
> df.
groupBy
("date").count.show(50,false)
scala
浏览 7
提问于2018-07-19
得票数 0
回答已采纳
1
回答
minBy等价于Spark
、
、
我正在寻找minBy聚合在Spark中
的
等效功能,或者可能需要手动聚合。有什么想法吗?谢谢。
浏览 2
提问于2018-07-25
得票数 2
1
回答
用
scala
中
的
varargs创建
groupBy
函数
、
我试图为
scala
中
的
groupBy
单列或多
列
创建以下函数。".desc).show()但是这个代码错误
的
地方是: (col1: String,cols似乎正在编译以下方法: def
groupBy
(col1: String, cols: String*): Relatio
浏览 2
提问于2020-12-04
得票数 0
回答已采纳
2
回答
SparkSQL -在联接和
groupBy
之后获得重复行
、
、
我有两个
列
的
数据
格式
,如下所示。 .join(df2, "uid") .agg(count("*") as "xcnt", sum("s
浏览 0
提问于2018-01-27
得票数 3
回答已采纳
2
回答
在Apache Spark中解析/查询异构CSV数据
的
最佳方法?
、
我有大量
的
日志数据,这些数据是半结构化
的
CSV数据。但是,每一行
的
列
取决于它是什么类型
的
行,由
特定
的
列
指示。03/2018, dog, Bella, 9, 18/07/2018, dog, Scout, 5, 3 此
特定
示例显示了一个半结构化文件lastName: String, age: I
浏览 1
提问于2018-08-22
得票数 1
1
回答
如何使用嵌套元素将数据集从CSV转换为JSON?
、
、
但我不知道如何用通缉
的
方式将数据组织起来。
groupBy
函数返回一个不能保存为json
的
RelationalGroupedDataset。sql查询希望在分组后使用聚合。 我很感谢你
的
帮助。
浏览 2
提问于2017-12-15
得票数 0
回答已采纳
2
回答
为什么$不能处理String类型
的
值(并且只直接处理字符串文本)?
、
、
" val Date = "Date"}userJobBehaviourDF.
groupBy
($(ColumnNames.JobSeekerID))userJobBehaviourDF.
groupBy
(
浏览 2
提问于2018-01-11
得票数 2
回答已采纳
2
回答
当RDD[(String,Int)]上
的
saveAsTextFile时,如何删除记录周围
的
括号?
、
、
我
的
代码:words: Array[String] = Array(HI, HOW, ARE)
scala
keyvalueR
浏览 6
提问于2016-12-30
得票数 4
回答已采纳
2
回答
pyspark中
的
月度聚合
、
、
、
我正在寻找一种按月聚合我
的
数据
的
方法。我想首先在我
的
访问日期中只保留一个月。我
的
DataFrame看起来像这样:patientid = P1_Pt1959, note = jnut, |26/03/2015| 18560.0| |14&
浏览 2
提问于2018-09-29
得票数 3
2
回答
如何使用Dataset API (如SQL
的
“按1分组”或“按2排序”)使用序数?
、
、
我能够在Spark‘文字’查询中使用序数(在GROUP BY和ORDER BY之后
的
这些整数):但是对于DataFrames/DataSet,我必须始终使用列名: df.select($"ProfileName").
groupBy
($"ProfileName").count().orderBy(desc("count&
浏览 3
提问于2017-07-19
得票数 2
回答已采纳
3
回答
星星之火将多个列作为字符串聚合为一
列
、
、
、
udp: 5523, igmp: 4423, egp: 2331} |聚合
列
可以是列表或映射对于DataFrame函数,这是可能
的
吗?还是我需要创建自己
的
udf来聚合它呢?
浏览 1
提问于2018-05-17
得票数 0
回答已采纳
1
回答
"df['var'].map(df2)“和"df.var.map(df2)”总是产生相同
的
结果吗?
、
、
我有一个带有
列
df
的
dataframe df2,还有一个带有var和var2
列
的
dataframe df2。两个数据
格式
中
的
两个
列
var完全相同。在我
的
示例中,df['var'].map(df2)和df.var.map(df2)得到了相同
的
结果。我想问一下,这是否只是我
的
特定
数据集中
的
巧合,还是总是如此。 非常感谢!更新:在我
的
示例中,下面的代
浏览 2
提问于2021-03-20
得票数 1
回答已采纳
1
回答
如何使用pivot生成单行矩阵?
、
我需要将以下两
列
数据帧转换为单行数据帧(从长到宽)。20090622| 458||20090626| 151||20090914| 453|我需要这样
的
格式
-------+----------+----------+我运行了以下代码: result_df.
groupBy
($"udate").p
浏览 2
提问于2016-11-02
得票数 1
2
回答
Scala
:如何根据元组
的
第一个元素合并列表
假设我有一份清单:我怎样才能把这份清单写成:只有一个功能?
浏览 1
提问于2017-03-18
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
数据质量和验证检查
QTableView中使用Delegate方式来实现对特定列的文本进行换行
再见Vlookup,核对表格Groupby才是yyds
Python之数据聚合与分组运算
大数据有道之spark筛选去重
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券