腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4060)
视频
沙龙
1
回答
如何在
Spark
中使用ASCII函数
、
、
我需要帮助使用火花函数ASCII(sparkSQl字符串函数)通过使用scala import org.apache.
spark
.sql.SparkSessionimport org.apache.
spark
.sql.functions select ascii('Santosh') 我需要santosh的ascii值和
浏览 63
提问于2019-06-25
得票数 0
回答已采纳
2
回答
如何
将
RDD
[CassandraRow]转
换为
DataFrame?
、
、
、
、
目前,我正在
将
Cassandrarow
RDD
转
换为
dataframe:} 正如您所看到的,我首先将cassandraRow
rdd
转
换为
string,然后映射到我想要的格式。我发现这个方法变得很复杂,因为
rdd
包含多个颜色,而不是一个
浏览 5
提问于2017-05-30
得票数 0
回答已采纳
0
回答
spark
将
spark-SQL
转
换为
RDD
API
、
、
、
Spark
SQL对我来说非常清楚。然而,我才刚刚开始使用
spark
的
RDD
API
。", "D") val inputDf = input.toDF("TARGET", "col1", "col2", "col3TooMany", "col4")val
rdd
1_inputDf = inputDf.
rdd
.flatMap { x
浏览 0
提问于2017-01-03
得票数 0
回答已采纳
2
回答
Spark
:和
RDD
一样,数据集和数据帧也是不可变的吗?
、
、
、
在Apache
Spark
中,
RDD
是不可变的。 数据集和数据帧怎么样?它们是可变的还是不可变的(因为底层结构仍然是
RDD
)?
浏览 0
提问于2020-07-03
得票数 0
1
回答
使用火花中的弹性搜索火花读取数据时如何转换类型
、
、
、
当我尝试使用esRDD("index")函数读取elasticsearch中的数据时,我得到了org.apache.
spark
.
rdd
.
RDD
[(String, scala.collection.Map然而,我在上看到,上面写着: scalaVersion := "2.11.8" libraryDependencies += &qu
浏览 4
提问于2017-07-06
得票数 3
回答已采纳
2
回答
spark
避免每次都构建
RDD
、
我在S3中有数据,我可以在S3中加载数据,因为
RDD
应用一些更改将其转
换为
dataframe并运行
spark-sql
查询。但是,每当向S3添加新数据时,我都需要加载整个数据,因为
RDD
会将其转
换为
dataframe并运行查询。有没有一种方法可以避免加载整个数据而只加载新数据。是否应该
将
新数据添加到
RDD
中,而不是加载整个
RDD
?
浏览 10
提问于2019-04-30
得票数 0
回答已采纳
1
回答
Spark-SQL
数据帧外部数据源效率低
、
当我试图在
Spark-SQL
外部数据源上做一些测试时,会发生这个问题。为了更清楚地表达这个问题,我编写了一段代码: 在我的外部Datasource
API
基准代码中,它实现了一个假的外部数据源(实际上是一个
RDD
[String,ArrayInt] ),并通过以下方式获取数据帧val
rdd
= sqlContext.sparkContex
浏览 2
提问于2016-01-09
得票数 1
1
回答
spark
.sql()和
spark
.read.format("jdbc").option("query“、"")之间有什么区别?
、
、
、
我假设
spark
.sql(查询)是在使用
spark
.sql时使用的,而
spark
.read.format("jdbc").option("query“、"")则是在使用oracle语法时使用的。
浏览 3
提问于2021-08-16
得票数 3
回答已采纳
1
回答
根据scala中的数据类型映射每个列
、
、
、
fields.reduceByKey((x,y) => x+y) 获取误差 值reduceByKey不是org.apache.
spark
.
rdd
.
RDD
浏览 7
提问于2022-01-17
得票数 0
2
回答
SparkSession和SparkContext有什么区别?
、
我只知道版本差异,但不知道功能或其他。也就是说,Sparksession有内部的sparkcontext和conf。
浏览 0
提问于2018-03-30
得票数 16
1
回答
NoClassDefFoundError:
spark
应用程序中的scala/产品$class
、
、
我正在使用bash脚本构建一个
Spark
应用程序,并且我在build.sbt文件中只有一个
spark-sql
和核心依赖项。因此,每次我调用一些
rdd
方法或
将
数据转
换为
case类以创建dataset时,我都会收到以下错误: Caused by: java.lang.NoClassDefFoundError: scala/Product" %% "
spark-sql
" % "2.3.3" lazy val sparkCore =
浏览 13
提问于2019-06-08
得票数 1
回答已采纳
1
回答
无法解析导入的com.datastax.
spark
.connector.CassandraJavaUtil
、
、
、
我正在尝试使用
spark-sql
java
API
来连接cassandra。下面是我正在使用的jar <dependency> <artifactId>
spark
-cassandra-connector_2.11</artifactId></depende
浏览 24
提问于2019-04-22
得票数 0
1
回答
如何在Pandas数据转换过程中处理时间戳类型?
、
、
、
、
我看了一下“createDataFrame”()中的pyspark源代码,它们似乎
将
数据转
换为
numpy记录数组,并将其转
换为
列表: at org.apache.
spark
.
api
.python.PythonRDD.compute(PythonRDD.scala:63) at org.apache.
spark
.
rdd
.
RDD
.computeOrRe
浏览 2
提问于2017-07-25
得票数 5
0
回答
无法
将
RDD
注册为TempTable
、
、
、
{SparkConf, SparkContext}import java.sql.+= "org.apache.logging.log4j" % "log4j-
api
" % "2.11.0" libraryDependencies += "org.apache.logging.log4j+= "org.apache.
spark
" %% "
spa
浏览 11
提问于2018-07-16
得票数 0
回答已采纳
1
回答
在包含join的Sparkjob中超出了GC开销限制
、
、
:379)at org.apache.
spark
.
rdd
.
RDD
.iterator(
RDD
.scala:319)at org.apache.<
浏览 22
提问于2017-03-10
得票数 1
1
回答
spark
和scala中的
RDD
到DataFrame
、
、
、
def main(args: Array[String]): Unit = { .builder() .appName("SparkAndHive") val sparkCo
浏览 5
提问于2022-10-19
得票数 0
回答已采纳
2
回答
BSONObject到DataFrame的
RDD
、
、
、
按照的描述,我正在从Mongo加载一个bson
转
储到
Spark
中。它是有效的,但我得到的是:它基本上应该是包含所有String字段的JSON。但是,当然,toDF在该
RDD
上失败了。如何将其转
换为
所有字段均为String的
Spark
DataFrame?如果能有类似于
spark
.read.json的东西就太好了。
浏览 1
提问于2016-10-04
得票数 1
2
回答
Scala火花-
将
RDD
[List[scala.Double]]转
换为
RDD
[scala.Double]
、
我正在调用mllib Statistics.corr()函数并接收以下错误: (x: org.apache.
spark
.
api
.java.JavaRDDjava.lang.Double,y: org.apache.
spark
.
api
.java.JavaRDDjava.lang.Double,方法: String)scala.Double (x: org.apache.
spark
.
rdd
.RDDscala.Double,y: org.apache.
spark
.
r
浏览 6
提问于2015-09-21
得票数 1
回答已采纳
1
回答
正在尝试
将
数据帧数据写入CSV文件。在
Spark
中
、
、
、
{Level, Logger} import org.apache.
spark
.sql.SparkSessionLevel.ERROR) val sc = new SparkContext("local[*]", "savingCSV") val
spark
= SparkS
浏览 15
提问于2021-08-12
得票数 0
2
回答
RDD
到Dataframe
Spark
Couchbase
、
、
、
我已经从NOSQL数据库创建了
RDD
,我想将
RDD
转
换为
数据帧。我已经尝试了许多选项,但都会导致错误。
将
RDD
转
换为
Dataframe的最佳方法是什么?<and> (
rdd
浏览 1
提问于2016-11-28
得票数 0
点击加载更多
相关
资讯
将秒数转换为时间免费API接口教程
Spark SQL,DataFrames 以及 Datasets 编程指南
Spark SQL DataFrame与RDD交互
怎样将mp4转换为flv?mp4转flv用它很方便!
SparkStreaming-1
热门
标签
更多标签
云服务器
ICP备案
云点播
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券