腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1625)
视频
沙龙
1
回答
如
何在
没有
Spark
Rest
API
的
Spark
中
监听
作业
进度
我已经创建了自己
的
spark
listener类来扩展SparkListener。我已经覆盖了onJobStart和onJobEnd方法。但是找不到一种方法来获得工作进展。我想要查看
作业
完成
的
百分比。我知道我可以通过
Spark
Rest
API
,但不幸
的
是我不能使用它。是否有其他方法可以获取
作业
进度
百分比?
浏览 9
提问于2017-06-21
得票数 2
回答已采纳
3
回答
如
何在
Spark
中
实现自定义
作业
监听
器/跟踪器?
、
我有一个类似下面的类,当我通过命令行运行这个类时,我希望看到
进度
状态。像这样
的
东西,30% completed... args[0], System.getenv("
S
浏览 1
提问于2014-06-28
得票数 14
1
回答
如何通过Powershell在HDInsight上提交
Spark
作业
?
、
、
、
有
没有
办法通过Powershell在HDInsight上提交
Spark
作业
?我知道这可以通过Azure Data Factory
中
的
活动来完成,但是有
没有
办法将python脚本从Powershell cmdlet提交到pyspark HDInsight?
浏览 3
提问于2017-06-22
得票数 0
1
回答
在Databricks Jobs
API
中
传递JVM参数
、
、
、
我想在Databricks中使用Jobs
API
将JVM参数传递给
REST
请求。有可能做到吗?任何提示都会有所帮助。 将类似-Dconfig-file=app.conf
的
内容添加到
spark
作业
。
浏览 7
提问于2020-02-28
得票数 1
3
回答
如
何在
不使用
spark
-submit
的
情况下触发
spark
作业
?实时代替批处理
、
、
我有一个
spark
作业
,我通常使用
spark
-submit和输入文件名作为参数来运行它。现在我想让工作对团队可用,这样人们就可以提交一个输入文件(可能通过一些web-
API
),然后
spark
作业
将被触发,它将返回给用户结果文件(也可能是通过web-
API
)。(我使用
的
是Java/Scala) 在这种情况下,我需要构建什么才能触发
spark
作业
?有什么教程吗?我应该在这种情况下使用
spark
浏览 0
提问于2015-06-16
得票数 0
2
回答
Spark
应用程序作为
Rest
服务
我有一个关于
spark
应用程序用法
的
问题。因此,我希望我们
的
Spark
应用程序作为
REST
API
Server运行,就像Spring Boot应用程序一样,因此它不会是批处理过程,相反,我们将加载应用程序,然后我们希望保持应用程序
的
活动状态(不调用
spark
.close()),并通过我们将定义
的
一些应用程序接口将应用程序用作实时查询引擎。我
的
目标是将其部署到Databricks。任何建议都是好
的
。
浏览 1
提问于2020-09-01
得票数 1
1
回答
如
何在
长期运行
的
星图
作业
中
监控
进度
和恢复?
我们使用
Spark
运行一个ETL进程,通过这个过程从一个庞大
的
(500+GB) MySQL数据库加载数据,并转换成聚合
的
JSON文件,然后写入Amazon。我
的
问题有两方面: 这项工作可能需要很长时间才能运行,很高兴知道映射是如何进行
的
。我知道星火有一个内置
的
日志管理器。它是否就像在每个地图中放置一个日志语句一样简单?假设这个庞大
的
作业
在中间失败(可能它会阻塞DB记录,或者MYSQL连接会下降)。在星火中有什么简单
的
方法可以从这里
浏览 0
提问于2018-08-01
得票数 1
回答已采纳
3
回答
纱线上
的
火花2.3.1 :如何通过程序监测阶段进展?
、
、
、
我已经设置了
Spark
在纱线上运行,我
的
目标是以编程
的
方式通过应用程序id获得星火
作业
进度
的
更新。 我
的
第一个想法是解析纱线GUI
的
HTML输出。然而,这种GUI
的
问题是,与火花
作业
相关
的
进度
条
没有
定期更新,甚至大部分时间都不会更改:当
作业
开始时,百分比大约是10%,并且它坚持这个值直到
作业
完成。因此,这样
的
纱
浏览 0
提问于2018-08-23
得票数 0
回答已采纳
4
回答
通过Web应用程序启动星火应用程序
的
最佳实践?
我想向web应用程序
的
用户公开我
的
星火应用程序。 we
浏览 2
提问于2016-10-28
得票数 31
2
回答
如何从web应用程序
中
利用
spark
集群?
很多人都问过这个问题,但除了链接和参考之外,
没有
明确
的
答案,而且大多数都不是最近
的
。问题是:我有一个web应用程序,需要利用
spark
集群来运行
spark
-sql查询。我
的
理解是,提交
作业
脚本是异步
的
,因此这在这里不起作用。我如
何在
这样
的
设置
中
利用
spark
?我是否可以像在自包含
的
spark
应用程序中一样,在web应用程序
中
编写
浏览 3
提问于2016-09-13
得票数 2
5
回答
如何通过火花
REST
获取所有
作业
状态?
、
我正在使用
spark
1.5.1,我希望通过
REST
检索所有
作业
状态。 我正在使用/
api
/v1/applications/{appId}得到正确
的
结果。但是,在访问
作业
时,/
api
/v1/applications/{appId}/jobs But “
没有
这样
的
应用程序:{appID}”响应。我应该如
何在
这里传递应用程序ID,以
浏览 18
提问于2015-11-03
得票数 7
2
回答
如何调用从
Spark
作业
调用
的
web服务?
、
、
我想调用一个web服务来获取
Spark
Structured Streaming
中
的
一些数据。有可能吗?多么?
浏览 0
提问于2019-12-07
得票数 5
3
回答
我们是否可以在执行程序上跨批处理使用缓存
的
RDD
、
、
、
、
我有一个案例,我想每隔一小时从远程存储下载一些数据,并将其作为键-值对存储在executor/worker上
的
RDD
中
。我想缓存这个RDD,这样将来在这个executor/worker上运行
的
所有
作业
/任务/批处理都可以使用缓存
的
RDD进行查找。这在
Spark
Streaming
中
是可能
的
吗?一些相关
的
代码或指向相关代码
的
指针会很有帮助。
浏览 1
提问于2016-09-20
得票数 2
4
回答
如何从命令行检查
Spark
应用程序
的
状态?
要检查Apache
spark
中正在运行
的
应用程序,可以从URL上
的
web界面进行检查:我
的
问题是,我们如何从终端检查正在运行
的
应用程序,有什么命令可以返回应用程序
的
状态吗
浏览 0
提问于2016-05-25
得票数 32
2
回答
使用
Spark
-
Spark
JobServer进行实时基于请求
的
推荐?
、
、
我们正在试图找到一种加载
Spark
(2.x) ML训练模型
的
方法,这样我们就可以根据请求(通过
REST
接口)查询它并获得预测,例如 有一些现成
的
库可以将模型加载到
Spark
中
(假设它是在使用MLWritable训练后存储在某个地方),然后将其用于预测,但由于SparkContext
的
初始化,将其包装在
作业
中
并在每次请求/调用时运行它似乎有些过分。经过一些挖掘,我们发现可以潜在地帮助我们解决这个问题,它允许我们为
作业
浏览 1
提问于2017-02-14
得票数 5
5
回答
如何从程序
中
获取
spark
作业
状态?
、
我知道hadoop
REST
API
通过程序提供对
作业
状态
的
访问。 同样,有
没有
办法在程序
中
获得
spark
作业
状态?
浏览 0
提问于2014-11-27
得票数 2
3
回答
如何获取当前SparkContext
的
jobId?
、
、
所有其他问题似乎都解决了
Spark
applicationId
的
获取问题。我想以编程方式取消需要jobId
的
spark
作业
。
spark
.sparkContext.cancelJob(jobId)
浏览 55
提问于2021-11-12
得票数 0
2
回答
找出
Spark
阶段每一步
的
执行时间
、
我如何才能找到
Spark
阶段
中
每一步
的
持续时间?我想弄清楚到底哪一步才是我工作
的
瓶颈。
浏览 0
提问于2016-09-05
得票数 2
1
回答
Apache livy for Dask分布式替代方案
、
、
Dask是一个纯粹
的
基于python
的
分布式计算平台,类似于Apache
Spark
。有
没有
办法通过
REST
API
运行和监控Dask分布式
作业
/任务,比如Apache Livy for Apache
Spark
?
浏览 41
提问于2021-09-26
得票数 1
1
回答
可以使用
spark
-submit -package广播Tensorflow库吗
、
我正在使用一个集群,它不是由我自己管理
的
。Tensorflow库未安装在任何群集节点上。但是我想使用tensorflow包来运行一些
Spark
程序。我不确定是否可以简单地使用
spark
-submit --packages来跨集群节点广播tensorflow包。
浏览 1
提问于2016-11-06
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
【大数据】yarn proxyserver和historyserver 讲解
Livy,基于Apache Spark的开源REST服务,加入Cloudera Labs
Openstack Sahara开启大数据云端之旅
如何从Pandas迁移到Spark?这8个问答解决你所有疑问
Spark REST API深入分析
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券