腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
我们应该什么时候使用
Spark
-sql,什么时候使用
Spark
RDD
、
、
、
在哪种场景下,我们应该更倾向于使用
spark
RDD来编写解决方案,在哪种场景下,我们应该
选择
使用
spark
-sql。我知道
spark
-sql提供了更好的性能,它对结构和半结构数据的处理效果最好。但是,在
选择
spark
Rdd和
spark
-sql时,我们还需要考虑哪些因素。
浏览 1
提问于2020-05-29
得票数 0
1
回答
TypeError:“JavaPackage”对象不可调用
、
、
、
、
/opt/
spark
/bin/
spark
-submit --jars
spark
-streaming_2.10-2.0.0.jar test_kafka.py broker.txt "localhostkvs = KafkaUtils.createDirectStream(ssc, [topic], {"metadata.broker.list": brokers}) File "/opt/
spark
python
浏览 9
提问于2016-08-29
得票数 3
1
回答
在EMR中将spring active profile传递给
Spark
App
、
、
我已经开发了一个
Spark
App,它使用Spring Boot,并且
Spark
Job被提交到EMR集群,一个基于事件的EMR集群。如果
Spark
应用程序不是Spring Boot应用程序,这将按预期工作。使用Spring Boot应用程序,我们需要改变构建uber JAR文件的方式。=-Dspring.profiles.active=dev" --conf "
spark
.driver.extraJavaOptions=-Dspring.profiles.active=dev" 无论我做什
浏览 3
提问于2020-02-19
得票数 0
1
回答
使用sparklyr软件包试图连接到Rstudio中的星火时出错
、
我使用下面的命令连接到来自rstudio的星星之火: Parameters: --class, sparklyr.Backend\AppData\Local\rstudio
浏览 2
提问于2017-07-10
得票数 0
1
回答
Spark
over Yarn -不正确的应用程序主控
选择
、
、
executor-memory 2g \ lib/myapp.jar \ 当我查看Web UI以了解幕后到底发生了什么时,我注意到YARN作为应用程序主节点
选择
了一个不是
Spark
Master的节点。这是一个问题,因为实际的
Spark
Master节点强制参与分布式计算,导致不必要的数据网络传输(当然,因为
Spark
master一开始没有数据)。根据我在测试中看到的,Yarn以一种完全随机的方式
选择
AM,而我找不到一种方法来强迫他<e
浏览 2
提问于2015-02-04
得票数 2
6
回答
spark
2.1.0会话配置设置(pyspark)
、
、
、
我正在试图覆盖星星之交/火花上下文默认配置,但它正在
选择
整个节点/集群资源。()
spark
.conf.set('
spark
.executor.cores', '3')
spark
.conf.set('<em
浏览 12
提问于2017-01-27
得票数 48
回答已采纳
1
回答
Spark
.load()是否将所有数据都放入DF,然后执行字段(“.select”)?
、
、
我读到
Spark
retrieve only retrieve,但是我如何使用Scala来检查呢?我正在使用Scala将数据从ES索引加载到
Spark
DF。如果我使用以下命令,则只需
选择
所需的字段: val indexData = sparkSession.read .option("scroll.limit",100000) .select("country")
spark
会
浏览 30
提问于2021-10-06
得票数 1
回答已采纳
1
回答
星星之火sql SQLContext
、
、
、
我试图通过SQLContext.sql在
Spark
应用程序中从MSSQL数据库中
选择
数据。连接可以工作,但我无法从表中
选择
数据,因为它总是在表名上失败。找到 // https://mvnrepository.com/artifact/org.apache.
spark
/
spark
-core_2.11 libraryDependencies+= "org.apache.
spark
" %
浏览 0
提问于2017-07-13
得票数 1
回答已采纳
1
回答
如何调整星火以避免磁盘溢出排序?
理论上,内存中有足够的空间来容纳数据(除非
Spark
用于排序的开销很大)。然而,我们经历了泄漏。有办法准确地计算出每个执行者需要多少内存才能工作吗?
浏览 4
提问于2021-11-10
得票数 1
1
回答
连接到tableau中的
spark
数据框
、
、
、
我们试图通过
spark
SQL连接在tableau中生成报告,但我发现我们最终连接到了hive meta-store。 如果是这样的话,这种新的
spark
SQL连接有什么优势呢?有没有一种方法可以使用
spark
SQL从tableau连接到持久的
spark
数据帧。
浏览 0
提问于2016-02-05
得票数 0
1
回答
如何使火花放电和SparkSQL在星火上执行蜂巢?
、
、
、
、
通过使用
spark
-shell / pyspark,我还遵循并实现了创建Hive表,加载数据,然后正确
选择
。|
spark
.master| yarn| >>>
spark
.sql("set
spark
.submit.d
浏览 0
提问于2020-02-23
得票数 0
回答已采纳
1
回答
设置allowDeselction组件的“ButtonBarButton”属性时的问题
、
、
、
、
这意味着当您在ButtonBar控件中
选择
一个按钮时,该按钮将保持所选状态,直到您
选择
另一个按钮为止。因此,在声明ButtonBarSkin中的按钮组件时,Im将ButtonBarSkin属性设置为false。--- @de
浏览 4
提问于2013-04-11
得票数 1
回答已采纳
1
回答
未能找到“火花-提交2.cmd”
、
、
(master = master,
spark
_home =
spark
_home,
spark
_version = version, : >
s
浏览 1
提问于2020-11-01
得票数 0
回答已采纳
1
回答
需要帮助解决星火流依赖关系(Scala )
、
、
、
:= "demoSpark" "org.apache.
spark
" % "
spark</
浏览 1
提问于2017-08-08
得票数 1
回答已采纳
1
回答
如何在客户端模式下设置
spark
driver maxResultSize?
、
、
、
因此,设置配置的方法是实际编辑启动它的shell脚本:
spark
-env.sh...according to this documentation 。如果我想更改驱动程序的最大结果大小,我通常会这样做:
spark
.driver.maxResultSize。与
spark
-env.sh文件中的内容等效的是什么?一些环境变量很容易设置,比如
SPARK
_DRIVER_MEMORY显然是
spark
.driver.memory的设置,但是
spark
.driver.maxResultSize的环境变量
浏览 31
提问于2016-07-16
得票数 3
回答已采纳
3
回答
如何添加EMR火花步骤?
、
、
根据
浏览 1
提问于2020-05-09
得票数 2
回答已采纳
1
回答
BigQuery存储应用编程接口:从
Spark
Pandas UDF使用客户端的最佳实践?
、
、
我有一个
spark
脚本,需要为每一行进行60个api调用。目前,我使用BigQuery作为数据仓库。抱歉,如果代码没有为这个用例正确完成,我是
spark
和BigQuery的新手。
浏览 9
提问于2019-12-12
得票数 1
2
回答
sbt项目的火花,但没有找到一些软件包的上下文?
、
、
build.sbt内容:主要代码: 如上图所示,红色部分是错误的,我觉得很奇怪,如: toInt方法应该是内置函数,但这没有找到它
浏览 3
提问于2015-08-03
得票数 1
回答已采纳
1
回答
连接卡桑德拉和火花时出错
、
并建造它git checkout v1.4.0并使用连接器 bin/
spark
-shell --jars ~/
spark
-cassandra-connector-assembly-1.4.0-
浏览 5
提问于2016-09-11
得票数 2
回答已采纳
2
回答
配置单元查询失败,出现"Unable to fetch table test_table. Invalid method name. 'get_table_req'“,pyspark为3.0.0 & Hive为1.1.0
、
、
、
、
在一个相当新的环境中深入研究
spark
的POC,并检查
spark
功能,但在pyspark终端中运行sql查询时出现问题,而Hive正在工作,因为我们可以查询元数据。$ pyspark --driver-class-path /etc/
spark
2/conf:/etc/hive/conf>>&
浏览 500
提问于2020-08-19
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
大数据之谜Spark基础篇,我们为什么选择Spark技术
大数据有道之spark选择去重
走进大数据 Spark-Spark streaming
Spark实战(5)_Spark Core核心编程
Spark及Spark Streaming 核心原理及实践
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券