腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
运
行时
中
的
Spark
配置
更改
、
、
因此,询问是否有人知道
在运
行时
更改
Spark
属性(例如
spark
.executor.memory、
spark
.shuffle.spill.compress等)
的
方法,以便
更改
可以在
作业
期间
的
任务/阶段之间生效……1)
Spark
2.0+
的
文档(以及之前
的
版本)指出,
Spark
上下文
一旦创建,就不能
浏览 0
提问于2016-10-01
得票数 10
1
回答
Spark
作业
服务器
上下文
用户
在运
行时
的
更改
、
、
如何
更改
在
Spark
Job Server中创建
的
上下文
的
用户
?我想要
更改
我在sparkSession.sparkContext.sparkUser()上获得
的
用户
;
浏览 43
提问于2020-03-23
得票数 0
1
回答
在
spark
streaming中,有没有一种方法可以动态地将新
的
计算添加到现有的流中?
我们有一个用例,不同
的
用户
希望以不同
的
方式实时处理数据,这些
用户
来来去去。据我所知,我可以为底层数据创建一个流,然后进入foreachRDD来运行我
的
计算。当新
用户
需要新
的
计算时,是否可以通过在单独
的
线程中进入foreachRDD来添加额外
的
计算? 提前谢谢。
浏览 1
提问于2015-10-02
得票数 1
1
回答
如何在火花
作业
完成并关闭
上下文
后查看其日志?
、
、
、
、
我
在运
行pyspark,
spark
1.3,standalone mode,client mode。当我提交一份工作时,我当然会打开一个火花环境。在
作业
运
行时
,我可以使用ssh隧道打开
spark
。然后,我可以查看当前正
在运</
浏览 4
提问于2016-07-15
得票数 5
回答已采纳
1
回答
如何将文件中
的
配置参数作为
spark
作业
的
环境变量进行传递?
、
、
、
我正
在运
行一个
spark
应用程序,它将使用文件中
的
配置参数。文件:-
Spark
.confpassword=ankushport=22如何
在运
行时
使用此文件。如何让
作业
在运
行时
动态选取配置文件,而不是在
更改
配置文件时重新启动
浏览 0
提问于2017-09-01
得票数 0
1
回答
是否可以使用固定
的
Spark
上下文
池并行运行多个
spark
作业
?
我是
Spark
的
新手,所以任何建议,无论是关于相关工具或针对我
的
用例建议
的
设计
更改
,都将不胜感激。我目前
的
情况是,我有几百万个独立
的
Spark
作业
,运
行时
间不是很长(平均几秒钟),我使用Livy以批处理模式提交它们。问题是,初始化每个
作业
的
Spark
上下文
所需
的
时间比运行
作业
本身所需
的
时间要长
浏览 2
提问于2021-09-06
得票数 1
3
回答
从Oozie运行
Spark
2
、
、
、
、
我试图运行一个火花
作业
(使用火花2-提交)从Oozie,所以这个
作业
可以运行
的
时间表。17/11/16 12:03:55 ERROR
spark
.SparkContext: Error initializing SparkContextYarn
的
身份运行该
浏览 6
提问于2017-11-16
得票数 0
回答已采纳
1
回答
从web应用程序连接
Spark
代码
、
、
、
可以有人请让我知道如何连接到
Spark
应用程序从网络应用程序。我们所拥有的
Spark
代码都在Scala上,我们希望从web应用程序中访问这些代码。如果我们可以提供一个小
的
代码片段,这将是有帮助
的
。
浏览 1
提问于2015-06-12
得票数 0
1
回答
SharePoint计时器
作业
在按计划运
行时
不能正常工作,但手动运
行时
很好
、
、
问题是,计时器
作业
在计划中被调用时似乎不起作用。如果我安装它,然后使用我编写
的
一个小型控制台应用程序,在
作业
上调用execute,它就能正常工作。当它按计划运
行时
,它就没有了。我知道这份工作运行
的
原因:我知道一些事情不对劲
的
原因: 数据库为空,不包含任何文档。多次手动正确地运行
作业
。测试写入日志
的
另一个计时器
作业
在此<e
浏览 1
提问于2009-11-04
得票数 1
1
回答
如何根据reader调用次数
在运
行时
实现自定义提交间隔
、
如何实现自定义提交间隔,该间隔将
在运
行时
根据读取器调用
的
次数决定。我正在使用spring batch,并使用FlatfileItemReader读取记录。
浏览 2
提问于2017-06-21
得票数 0
1
回答
星火组件在SnappyData统一集群模式中生活在哪里?
我正试图了解SnappyData
的
“统一集群模式”部署拓扑中
的
所有"
Spark
“部分在哪里。 流在..。-领导还是
服务器
?
浏览 0
提问于2016-08-09
得票数 1
回答已采纳
1
回答
从file连接
的
密码文件中读取
它是一个常规
的
FTP连接,连接在21端口上。在我做连接然后打印成功
的
那一刻:对于如何处理或解决这一问题,有什么建议吗?
浏览 2
提问于2014-11-14
得票数 1
回答已采纳
2
回答
在IntelliJ IDEA中执行代码后,SparkUI正在停止
、
、
我正在尝试使用Scala中
的
IntelliJ IDEA来执行这个简单
的
Spark
工作。但是,
Spark
UI会在对象完全执行后完全停止。我是否遗漏了什么或在错误
的
位置收听了什么?Scala版本- 2.10.4和
Spark
- 1.6.0 object SimpleApp { val logFile
浏览 0
提问于2016-02-24
得票数 0
1
回答
什么是talend中
的
行,
上下文
在其中是如何表现
的
?
、
、
只有几个问题可以加深对Talend ESB
的
理解。一旦
作业
开始运行,据我所知,每次
作业
运
行时
你都会得到一行。 我想,我
的
第一个问题是,这是正确
的
吗?每一行在其生命周期内都是一个单独
的
容器,或者如果两个行同时运行,行之间会相互干扰吗?下一个问题将围绕
上下文
变量,以及如果
在运
行时
(context.var1 = "blah";)
更改
了这些变量,它们会影响整个
作业
还是只
浏览 4
提问于2015-05-25
得票数 2
1
回答
使用SparkContext (..)自定义sparkConf.set使用火花壳时
、
、
、
在
Spark
中,有三种主要方法来为用于创建SparkConf
的
SparkContext指定选项 ,在使用
spark
-shell时,当您在名为sc
的
变量中获得shell提示符时,已经为您创建了SparkContext。当使用星火壳时,如果在您有机会执行任
浏览 1
提问于2015-07-14
得票数 23
3
回答
如何在不使用
spark
-submit
的
情况下触发
spark
作业
?实时代替批处理
、
、
我有一个
spark
作业
,我通常使用
spark
-submit和输入文件名作为参数来运行它。现在我想让工作对团队可用,这样人们就可以提交一个输入文件(可能通过一些web-API),然后
spark
作业
将被触发,它将返回给
用户
结果文件(也可能是通过web-API)。(我使用
的
是Java/Scala) 在这种情况下,我需要构建什么才能触发
spark
作业
?有什么教程吗?我应该在这种情况下使用
spark
-streamin
浏览 0
提问于2015-06-16
得票数 0
1
回答
spark
执行期间
的
运
行时
应用程序日志记录
我有一个使用Scala语言为
Spark
编写
的
应用程序。我
的
应用程序代码已经准备好了,
作业
大约运行10-15分钟。 当
spark
作业
在运
行时
执
行时
,还需要提供应用程序执行
的
状态。我知道
spark
以懒惰
的
方式运行,在
spark
执行期间将数据检索回驱动程序是不好
的
。通常,我会对定期提供状态感兴趣。例如:如果在
spark
应用程序中配置了
浏览 0
提问于2018-06-25
得票数 1
2
回答
如何在
spark
sql中创建永久表
、
、
在我
的
项目中,我将数据从MongoDB传输到基于SQL
的
查询
的
SparkSQL表。但是
Spark
允许我创建临时文件。当我想查询某件事情时,执
行时
间很长,因为数据传输和映射操作花费了太多
的
时间。那么,我能缩短执
行时
间吗?我可以创建永久星火SQL表吗?我可以用JDBC查询永久表吗?import
浏览 3
提问于2015-07-31
得票数 4
回答已采纳
1
回答
在
spark
单机版中将创建多少个执行器
我在没有hadoop/yarn
的
服务器
(8vCores和64 in )中安装了
spark
。我正
在运
行具有以下属性
的
作业
。
spark
.executor.instances=4
spark
.executor.cores=4
spark
.driver.memory=16g从顶部
的
命令中,我看到该程序占用了大约22.3 is
的</em
浏览 0
提问于2019-07-12
得票数 0
3
回答
Spark
作业
执
行时
间
、
、
这可能是一个非常简单
的
问题。但是,有没有什么简单
的
方法来测量
spark
作业
(使用
spark
-submit提交)
的
执
行时
间呢? 它将帮助我们根据输入数据
的
大小来分析
spark
作业
。编辑:我使用http://[driver]:4040来监视我
的
作业
,但是这个Web在我
的
作业
完成时立即关闭。
浏览 5
提问于2016-04-30
得票数 8
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
监控用户磁盘的使用情况,Windows服务器如何更改磁盘配额设置
【大数据】yarn proxyserver和historyserver 讲解
Salesforce如何连续分析数以万计的生产服务器
Spark 运行架构以及常用组件
Apache Spark 3.0 预览版正式发布,多项重大功能发布
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券