腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
Submitted在提交员工节点/
作业
IOException后无休止地重新提交
、
、
、
在我们的应用程序中,我们有一个内置的火花独立集群(Version2.4.3),它通过submit主URL接收主数据引擎加载程序提交的
作业
。2020-04-28 11:31:15,466 INFO
spark
.SecurityManager: SecurityManager: authentication,
浏览 1
提问于2020-04-28
得票数 0
回答已采纳
1
回答
为什么在dataproc中只有一个
作业
id,而在pyspark脚本中有多个操作?
、
、
、
火花
作业
的定义是:sc.parallelize(range(1000),10).collect() sc.parallelize(range(1000),10).collect()
浏览 3
提问于2022-01-21
得票数 2
回答已采纳
1
回答
星火集群环境下并行
作业
运行时星火数据集错误值
、
、
、
.set("
spark
.executor.instances","8") .set("
spark
.driver.memoryOverh
浏览 2
提问于2018-06-14
得票数 0
2
回答
Spark
2-提交不同于
spark
-submit
spark
2-submit和
spark
submit有什么不同?我需要从
spark
1.6 to
spark
2.4迁移我的代码,我是否仍然可以使用
spark
-submit来启动我的应用程序,或者必须迁移到
spark
2-submit。
浏览 65
提问于2019-01-17
得票数 0
回答已采纳
1
回答
为在纱线模式下运行的每个
spark
作业
配置log4j
、
、
、
、
我在yarn客户端模式下运行
spark
作业
。我在unix脚本中使用
spark
-submit命令运行这些
作业
。我想有每个
spark
作业
运行的日志。我尝试使用下面的命令来获取日志:
spark
-submit --master yarn --deploy-mode client --num-executors 10 --executor-memory2G --driver-memory 2G --jars $
spark
_jars --class $
s
浏览 1
提问于2019-07-05
得票数 1
1
回答
即使内部任务返回错误,气流仍将DAG标记为成功。
、
所以我有一个DAG,它使用BashOperator在我们的服务器上触发一个火花
作业
。
spark
作业
从S3存储桶中读取数据,该桶被隔离到按天划分的分区中并执行操作,如果桶中没有数据,则返回一个'path不退出‘错误,即如果桶中没有数据。$$anonfun$org$apache$
spark
$sql$execution$datasources$DataSource$$checkAndGlobPathIfNecessary$1.apply($$anonfun$org$apache$
spark
$sql$e
浏览 4
提问于2022-11-17
得票数 0
2
回答
Spark
History服务器未列出已完成的jars
、
、
、
我在Windows中运行
Spark
独立
作业
。我想使用
Spark
历史服务器监控我的
spark
作业
。我已经用下面的命令启动了
spark
历史服务器,历史服务器启动成功。C:\Users\Documents\Prev_D_Folder\Softwares\Softwares\
spark
-2.2.0-bin-hadoop2.7\
spark
-2.2.0-bin-hadoop2.7\
spark
-2.2.0-bin-hadoop2.7\bin>
浏览 2
提问于2019-05-02
得票数 1
0
回答
在一个主
spark
作业
中启动多个
spark
作业
、
是否可以在一个主
spark
作业
中产生多个
spark
作业
,我的主
spark
作业
的驱动程序是在纱线集群上启动的,它将进行一些预处理,并基于它需要在纱线集群上启动多个
spark
作业
。主
spark
作业
将启动其他
spark
-job,类似于在
Spark
驱动程序中调用多个
spark
-submit。这些为新任务生成的线程将是完全不同的组件,因此不能使用
spark
浏览 5
提问于2016-12-21
得票数 2
1
回答
如何使用yarn rest api提交
作业
到
spark
?我想使用YARN REST API提交
作业
给
spark
、
我正在构建一个用于触发
spark
- job和检查
作业
状态的接口。 我不能使用像Livy,
spark
job server这样的第三方库。我想通过REST API创建启动和提交
作业
到
spark
集群的API。
浏览 19
提问于2019-10-21
得票数 0
回答已采纳
2
回答
如何在GCP集群模式下运行
spark
作业
?
、
、
在GCP中,我们希望在一个data[proc集群]上以集群模式运行一个
spark
作业
。目前,我们使用以下命令:- gcloud dataproc jobs submit
spark
--cluster xxxx-xxxx-dataproc-cluster01 --region us-west2xxx-xxxx-poc/cluster-compute/lib/xxxxxxxx-cluster-computation-jar-0.0.1-SNAPSHOT-allinone.jar --properties=
浏览 14
提问于2020-03-16
得票数 2
1
回答
在Dataproc中将
spark
.master更改为纱线
、
、
、
、
我将
作业
提交到Dataproc中的星火集群(使用Hadoop )。我看到,无论我为
spark
.master和部署模式设置了哪些属性,当我进入
Spark
时,
作业
的环境选项卡总是显示
spark
.master的本地属性,而且
作业
的不同阶段总是使用相同的executor id例如: gcloud dataproc jobs submit
spark
--cluster mycluster --regionmyregion --class MyApp --properties
浏览 1
提问于2019-10-12
得票数 2
1
回答
Spark
HBase到Google Dataproc和Bigtable的迁移
、
、
、
我在AWS EMR集群上运行了HBase
Spark
作业
。最近我们搬到了GCP。我把所有的HBase数据都传输给了BigTable。现在,我在Dataproc中运行相同的
Spark
- Java/Scala
作业
。
Spark
作业
失败,因为它正在查看
spark
.hbase.zookeeper.quorum设置。请让我知道,如何在不更改代码的情况下,让我的
spark
作业
在BigTable上成功运行。 你好,Neeraj Verma
浏览 2
提问于2018-05-27
得票数 0
1
回答
如何按顺序运行
spark
作业
?
、
、
我正在提交多个
Spark
作业
。一个
作业
使用一个工人。目前,我一次提交了30个
作业
,5个
作业
正在运行,25个
作业
正在等待。但是,此操作会给服务器带来沉重的负载。(有时无法分配
作业
端口并发生错误。)当前我的运行代码:: ~/
spark
-submit ~test1.py & ~/
spark
-submit ~test2.py & ~/
spark
-submit ~testN.py
浏览 28
提问于2020-11-30
得票数 0
回答已采纳
2
回答
有没有办法用jobtracker或
spark
application master确认我提交的
spark
作业
是yarn-client还是yarn-cluster?
、
我正在尝试验证一个带有
spark
-submit选项的
spark
job命令实际上是在yarn-client模式还是yarn-cluster模式下运行。我在命令本身中指定了master-delopy模式,但希望在之后验证
作业
状态。 这更多地是从QA的角度来看的。我想知道是否可以从jobtracker或
spark
应用程序主程序中看到特定
作业
的部署模式。
浏览 12
提问于2018-08-27
得票数 1
1
回答
如何实时调优
spark
作业
?
、
、
如何在pyspark中调整
spark
结构化流式
作业
期间的内存核心消耗?
浏览 18
提问于2020-08-06
得票数 0
1
回答
如何在
Spark
中并行读写多个表?
、
、
、
在我的
Spark
应用程序中,我尝试从RDBMS读取多个表,执行一些数据处理,然后将多个表写入另一个RDBMS,如下所示(在Scala中): val reading1 = sqlContext.load(
浏览 0
提问于2015-08-25
得票数 8
3
回答
如何在不使用
spark
-submit的情况下触发
spark
作业
?实时代替批处理
、
、
我有一个
spark
作业
,我通常使用
spark
-submit和输入文件名作为参数来运行它。现在我想让工作对团队可用,这样人们就可以提交一个输入文件(可能通过一些web-API),然后
spark
作业
将被触发,它将返回给用户结果文件(也可能是通过web-API)。(我使用的是Java/Scala) 在这种情况下,我需要构建什么才能触发
spark
作业
?有什么教程吗?我应该在这种情况下使用
spark
-streaming吗?谢谢!
浏览 0
提问于2015-06-16
得票数 0
1
回答
如何在启动新
作业
之前了解
spark
作业
是否已完成
我想通过yarn并行运行一组
spark
作业
,然后等待它们全部完成,然后再启动另一组
作业
。我如何才能知道我的第一组
作业
何时完成?谢谢。
浏览 10
提问于2018-08-21
得票数 1
回答已采纳
2
回答
如何使用python多处理在
Spark
中运行多个并发
作业
、
、
、
我已经在我的笔记本电脑上的纱线集群上设置了一个
Spark
,并且使用python多处理在
Spark
中运行多个并发
作业
时遇到了问题。我运行的模式是纱-客户模式。对于每个进程,设置一个SparkContext并提交
作业
。在这种情况下,
作业
成功地提交给纱线,但
作业
是串行运行的,每次只运行一个
作业
,而其他
作业
处于队列中。是否可以同时启动多个
作业
?更新设置 调度
浏览 2
提问于2015-11-09
得票数 2
1
回答
在
Spark
程序中访问Oozie配置
、
、
我正在尝试使用Scala中的sys.env()方法通过
Spark
程序访问它。当我没有Oozie调度时,我能够正确地访问
Spark
中的环境变量。workflow.xml: <action name='
s
浏览 1
提问于2020-01-14
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark实战(6)_spark-sql-e-f-i命令的整合和spark-sql日常作业开发流程总结
如何监控和调试Spark作业,有哪些常用的工具和技术?
高性能Spark作业基础:你必须知道的调优原则及建议
走进大数据 Spark-Spark streaming
Spark实战(5)_Spark Core核心编程
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券