腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
将Scala转换为Iterable[tuple]
、
、
我有
一个
元组
列表
,(String,String,Int,Double),我想把它们转换成
Spark
RDD
。 一般来说,
如何将
Scala Iterable(a1,a2,a3,...,an)转换为
Spark
RDD
?
浏览 0
提问于2015-10-22
得票数 10
回答已采纳
3
回答
如何使用createDataFrame创建pyspark数据帧?
我知道这可能是
一个
愚蠢的问题。SparkSessiondf = SparkSession.createDataFrame(rows)df.show() 但是我得到了
一个
错误
浏览 1
提问于2018-03-12
得票数 2
回答已采纳
1
回答
如何将
两个
Spark
RDD
列表
组合成
一个
元组
列表
我有
两个
RDDs,我想用pyspark把它们组合在一起。first_
rdd
= ['Mike', 'Kate', 'Robert'] result_
rdd
= [('Mike', 23), ('Kate
浏览 43
提问于2020-12-10
得票数 0
1
回答
Spark
Countbykey() -为什么作为动作实现
、
、
在
Spark
中,为什么CountbyKey()是作为动作而不是转换来实现的。我认为它的功能类似于Reducebykey或combinebykey。有没有什么特别的原因让它实现为Action..
浏览 1
提问于2019-04-12
得票数 2
1
回答
从成对
列表
中创建
一个
三
元组
列表
,使所有三
元组
子集都出现在对
列表
中。
、
、
、
我对scala/
spark
很陌生,在编写
spark
程序时对函数式编程不太确定。res17: org.apache.
spark
.
rdd
.
RDD
[(Int, List[(Int, Int)])] 我想从双数中计算出
一个
新的三
元组
的
列表
,但是三
元组
的
列表
应该有所有它的子集存在于我们正在计算的原始
列表
中因此,我们不能简单地平平对
列表
,然后生成所有的三
元组
。在上面
浏览 1
提问于2017-02-25
得票数 1
回答已采纳
1
回答
调用o196时出错,显示calling
、
、
、
、
我正在了解火花,并想把
一个
列表
(大约1000个条目)转换为
一个
火花df。 at org.apache.
spark
.
rdd
.
RDD
.at org.apache.
spark
.
rdd
.
RDD
.iterator(
RDD
浏览 7
提问于2022-01-24
得票数 0
回答已采纳
1
回答
在scala中创建
RDD
并激发
、
、
)
rdd
1.foreach(println))
rdd<
浏览 9
提问于2022-10-21
得票数 0
1
回答
如何将
包含np.array (或list)的
Spark
转换为星火DataFrame?
、
、
、
如何将
包含np.array (或list)的
Spark
转换为星火DataFrame?我尝试了
一个
列表
,并得到了
一个
相当接近的错误:print(
rdd
.collect'> 在“学习火花书(O‘’reilly)”中,它是编写的ArrayType =>
列表
、
元组
或数组Python类型。为什么我需
浏览 3
提问于2022-04-03
得票数 1
回答已采纳
1
回答
combineByKey
元组
和计数
列表
、
、
我一直难以将
rdd
中
两个
浮动的键
元组
组合成
一个
列表
,将这些键
元组
组合成
一个
列表
,并对每个键进行计数。我在用
rdd
。combineByKey会这么做的。如果我将值传递给combineByKey之外的三个lambda,就会得到我所期望的结果,
一个
键和
一个
元组
列表
以及计数。但是,当我使用combineByKey进行此操作时,我会得到<
浏览 2
提问于2016-05-08
得票数 0
回答已采纳
1
回答
星星之火:协调
列表
?
、
如何将
下列所有
列表
连接起来:要获得
一个
集合: val values: org.apache.
spark
.
rdd
.
RDD
[Record
浏览 3
提问于2015-02-17
得票数 3
回答已采纳
1
回答
从ES中获取数据并保存到HDFS作为Avro (火花)
、
、
我对
Spark
和Scala还不熟悉,所以我有
一个
非常基本的问题。我有
Spark
1.5.2和Scala2.10.4。我创建了
一个
配置,允许我在使用
spark
-shell命令启动--config时直接从ES中以JSON的形式获取一些数据;我还导入了elasticsearch-hadoop的--jar。一旦我启动了星火,我做了以下几件事:val
rdd
= sc.esRDD("my-index&qu
浏览 3
提问于2017-05-11
得票数 0
回答已采纳
1
回答
带字典的PySpark约简键
、
、
、
、
为什么
Spark
强制从
元组
列表
中构建
RDD
,以便在进行还原键转换的情况下?) at org.apache.
spark
.
rdd
.
RDD
.computeOrReadCheckpoint(
RDD
.scala:306) at org.apache.
spark
.<em
浏览 0
提问于2018-01-18
得票数 1
1
回答
按键组合配对
、
、
使用pyspark,我有网格坐标(x,y)和位于每个网格广场内的各个点,所以我有:我也有
一个
rdd
点被移动到那个网格中,所以:我想把它们合并,这样我就有了: merged_
rdd
= ((x,y), [point1, point2,
浏览 2
提问于2022-07-28
得票数 0
3
回答
如何将
多个Pandas转换为单个
Spark
?
、
、
我有几个Excel文件,我需要加载和预处理,然后才能将它们加载到
Spark
中。我有需要处理的这些文件的
列表
。(file_path) file_list_
rdd
= file_list_
rdd
.union(current_file_
rdd
) 然后,我有了一些映射函数,它将file_list_
rdd
从一组(路径,字节)
元组
转换为(path,Pandas DataFrame)<e
浏览 3
提问于2017-04-17
得票数 0
回答已采纳
2
回答
向python
元组
添加条目
、
、
我有
一个
表示x,y点的
元组
列表
。我还有
一个
这些点的值
列表
。我
如何将
它们
组合成
一个
列表
列表
(即每个点x,y,val对应
一个
条目)或
一个
元组
列表
? 谢谢
浏览 0
提问于2010-02-18
得票数 3
回答已采纳
2
回答
在Scala中将
RDD
列拆分为几个列
、
、
我有
一个
如下形式的
RDD
:这是
RDD
的第
一个
元素:我想将该
列表
分成几列,因为它是用逗号分隔的,因此预期输出将是:有什么帮助吗?解决方案: 我最终解决了这个问题:我所做的是用mkstring(",")将数组
组合成
<em
浏览 0
提问于2016-10-03
得票数 1
2
回答
如何在星火
RDD
中通过键连接
两个
散列映射
、
、
的格式各有
两个
RDD
。
RDD
2-> {string1,HashMap[{long c,object}]
RDD
->{string1,HashMap[{l
浏览 3
提问于2015-03-26
得票数 1
回答已采纳
4
回答
什么是黑暗?.它与mapPartitions有何不同?
、
我在
RDD
上遇到了glom()方法。根据文件 glom是在分区间对数据进行洗牌,还是只将分区数据作为数组返回?
浏览 4
提问于2016-03-02
得票数 15
回答已采纳
1
回答
从
spark
作业中调用JDBC到impala/hive并装入
一个
表
、
我正在尝试用java编写
一个
spark
作业,它将打开与Impala的jdbc连接,并允许我加载表和执行其他操作。 我该怎么做呢?任何例子都会有很大的帮助。谢谢!
浏览 1
提问于2016-02-02
得票数 0
2
回答
在python pyspark中将元素添加到
列表
列表
、
、
我有
一个
包含structure - [('100', 'class 1'), ('110', 'class 2'), ('1030', 'class 2'),.....]学生数据的
列表
。这个结构是我使用这个命令得到的:现在,我想将学生分数添加到上面
列表
的每个元素中,这样输出就变成:学生成绩显示在名为score的
列
浏览 1
提问于2015-08-14
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark基础篇
Spark 核心编程RDD简介与核心属性
大数据之谜Spark基础篇,Spark RDD内幕详解
万字长文,Spark 架构原理和RDD算子详解一网打进!
史上最全的 Python 3 类型转换指南
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券