腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(276)
视频
沙龙
1
回答
如
何在
scala
中将
seq
[
row
]转
换为
数据
帧
、
有没有什么方法可以转换
Seq
行 转
换为
scala
中的
数据
帧
。我有一个
数据
帧
和一个字符串列表,它们具有输入
数据
帧
中每一行的权重。我想构建一个dataframe,它将包括所有具有唯一权重的行。我能够过滤唯一的行并附加到
seq
行 但我想建立一个
数据
框架。这是我预先编写的代码.Thanks。def dataGenerator(input : DataFrame, val : List[String]):
浏览 101
提问于2021-03-01
得票数 0
回答已采纳
1
回答
将对象的Java ArrayList转
换为
scala
seq
、
我在Java语言中有一个ArrayList,它包含如下类型的
Row
对象我需要将此表转
换为
Scala
Seq
,以便稍后将其转
换为
数据
帧
我尝试了以下几种方法,但没有成功 Table.asScalaJavaConverter
浏览 0
提问于2018-04-03
得票数 0
1
回答
如何将火花
数据
分解为按cols或条件列出的
数据
、
、
、
我有数十亿行
数据
帧
,我想把这个
数据
帧
按照标签cols的值分成数百行。"d"|"x" |"b"我有两个问题 de
浏览 1
提问于2020-12-16
得票数 0
1
回答
Apache Spark 2.3.0 -如何将两个array<string>合并成一个array<string>
、
、
我试着用谷歌搜索,但找不到解决方案。将两个array<string>合并成一个array<string>在2.4.x版本中是可能的,也很容易,但在2.3.0版本中找不到这样做的方法。[[one, two, three], [four, five, six]][ one, two, three, four, five, six]
浏览 9
提问于2021-09-22
得票数 1
1
回答
不支持toDF()
、
、
、
、
我对
Scala
非常陌生。我正在尝试将Iterable[dataSet[
Row
]]转
换为
数据
帧
。这对我不起作用。以下是代码 def execute(spark: SparkSession, execParams:Map[String, String]): Dataset[
Row
] = { val spark: SparkSession = SparkSession.bu
浏览 22
提问于2020-04-17
得票数 0
1
回答
将向量转
换为
数据
帧
时出错
、
、
、
将矢量转
换为
数据
帧
时出错我想用我所知道的东西来解决这个问题,即第二部分中提到的代码。你能帮帮我吗 Vectors.sparse(4,
Seq
((0, 1.0), (3, -2.0))), Vectors.dense(6.
浏览 0
提问于2018-04-06
得票数 0
1
回答
数据
帧
的
scala
joinWithCassandraTable结果
、
、
我正在使用Datastax spark- Cassandra -connector来访问Cassandra中的一些
数据
。] = case(_, cassandraRow) =>
Row
(cassandraRow.columnValues:_*) sqlC
浏览 20
提问于2020-07-17
得票数 0
0
回答
Scala
:用单引号替换双引号
、
、
、
、
如
何在
Scala
中将
单引号替
换为
双引号?我有一个
数据
文件,其中包含一些带有"abc“(双引号)的记录。我需要将这些引号替
换为
单引号,并将其转
换为
数据
帧
。
浏览 7
提问于2017-01-04
得票数 1
2
回答
使用DataFrame.to_dict时dtype更改
、
我的DataFrame中有一个DataFrame列,但是当我使用DataFrame.to_dict('record')将该DataFrame转
换为
python列表时,以前的uint64会神奇地转
换为
DataFrame
浏览 5
提问于2015-07-13
得票数 8
回答已采纳
1
回答
scala
.collection.mutable.ArrayBuffer不能强制转
换为
java.lang.Double (Spark)
、
、
、
:
Row
) =>
row
.getAs[
Seq
[
Row
]]("future").map { case
Row
(e: Long, f: Long) =>(
row
.getAs[Double]("midx"), e, f) } |-- id: double (nullable = true) |-- event:
浏览 7
提问于2016-09-07
得票数 1
回答已采纳
2
回答
Scala
和Spark :如何通过图像?
、
我有一些二进制文件,它们是图像,我希望通过它们自己来分配像素:我的集群中的每个节点必须获得一个不同像素组的RGB,而不是另一个节点的像素组,并将这些RGB存储到
Scala
集合中。
浏览 2
提问于2017-06-03
得票数 3
回答已采纳
1
回答
Spark 2.3:读取rdd.map()中的
数据
帧
、
、
我希望使用.map()遍历RDD的每一行,并希望在映射函数中使用
数据
帧
,如下所示: val rdd = ... // rdd holding
seq
of ids in each
row
.map { case
Row
(listOfStrings:
Seq
[String]) => list
浏览 13
提问于2021-01-17
得票数 0
回答已采纳
1
回答
将RDD转
换为
Dataframe Spark
、
、
、
如
何在
scala
中将
具有以下结构的RDD转
换为
dataframe org.apache.spark.rdd.RDD[(Long, org.apache.spark.mllib.linalg.Vector我希望将org.apache.spark.mllib.linalg.Vector的每个组件放在一行
数据
帧
中的单独列中。
浏览 2
提问于2017-02-26
得票数 2
1
回答
Scala
+ Spark中字符串数组到结构数组
、
、
我目前使用的是Spark和
Scala
2.11.8root|-- brandlabel: stringdescriptions: array (nullable = true)我正在尝试使用UDF将其转
换为
以下格式nullable = true)| | |-
浏览 2
提问于2017-02-17
得票数 0
回答已采纳
2
回答
将JavaRDD<
Row
>转
换为
JavaRDD<Vector>
、
、
、
我正在尝试对Wikipedia XML
转
储执行LDA。在获得原始文本的RDD后,我创建了一个
数据
帧
,并通过Tokenizer、StopWords和CountVectorizer管道对其进行转换。Caused by: java.lang.ClassCastException: org.apache.spark.mllib.linalg.SparseVector cannot be cast to
scala
.collection.
Seq
at org.apache.spark.sql.
Row
浏览 0
提问于2016-04-05
得票数 2
1
回答
在Java中创建一个UDF来将一个dataframe列映射到另一个
、
、
、
我在shell中编写了
Scala
代码,以将
数据
帧
的一列映射到另一列。我现在正试图将它转
换为
Java,但在使用我定义的UDF时遇到了困难。首先,我的UDF将行值列表从一列映射到第二列: val listToMap = udf((input:
Seq
[
Row
]) => input.map(
row
=> (
row
.getAs[Long](0)我对
Scala
和Java都很陌生,所以我可能错过了一些东西。我希望我能做一些简单的事情,
浏览 1
提问于2019-07-17
得票数 2
回答已采纳
1
回答
如何将
数据
框中的两列转
换为
scala
中的地图(col1,col2)?
、
、
如
何在
scala
中将
数据
框中的rwo列转
换为
Map(col1,col2)?我试过了: .map ({ case
Row
(a:String, b: String) =>
浏览 3
提问于2016-09-27
得票数 1
3
回答
PHP时区偏移时间
、
、
我已经编写了一个PHP应用程序,并且连接到另一个
数据
库来显示
数据
。如
何在
PHP
中将
2009-12-31 22:30:00
转
换为
8 8pm? 该字段为$
row
“field _cck_monday_value”
浏览 1
提问于2010-12-23
得票数 2
1
回答
将RDD添加到DataFrame列PySpark中
、
、
、
、
我想用两个RDD的列创建一个Dataframe,第一个是我从CSV获得的RDD,第二个是另一个RDD,它对每一行进行集群预测。customSchema = StructType([ \StructField("Perimeter", FloatType(), True), \StructField("Lenght", FloatTy
浏览 1
提问于2017-05-21
得票数 0
回答已采纳
4
回答
如何读取Spark中的嵌套集合
、
、
、
、
我觉得在谈判桌上提供一些统计
数据
可能会有所帮助。主表中的列数约为600。行数~200m。嵌套集合中的“列”数~10。嵌套集合中的平均记录数~35。
浏览 191
提问于2015-05-03
得票数 19
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
基于 TensorFlow 2.0 的长短期记忆网络进行多类文本分类
JVM语言比较研究:Java、Kotlin 和Scala的利与弊
Lookup、Sumifs、Xlookup靠边站!这才是Excel表格中最牛的4大函数
word怎么转excel?教你几招
练习题067:如何将一列数据转换为四列多行
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券