首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何将Flink作业提交到远程纱线集群?

如何将Flink作业提交到远程纱线集群?
EN

Stack Overflow用户
提问于 2016-08-14 14:17:01
回答 2查看 2.8K关注 0票数 0

我使用Ambari在4个节点上安装了Apache。我为Apache写了一份简单的工作。我想把这份工作提交给我的纱线组。但是Flink需要本地机器上的纱线配置文件(core-site.xml、yar-site.xml等)。所以如果我没有错的话,有两种曼纽尔的方法

  1. 在ResourceManager节点上启动flink作业(查找配置文件)
  2. 将配置文件从ResourceManager下载到本地。

我觉得这两种方法都不是很好。如何将我的工作提交到远程纱线集群。有合适的方法吗?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2016-08-16 07:37:37

我相信这更多的是一个关于开始你的纱线客户的问题,Flink恰好是Flink本身。

我对Flink知之甚少,但鉴于我对纱线上的火花的了解,我可以说您只能做2,即将配置文件下载到您将要用来启动Flink应用程序的机器上。您还可以使用纱线集群中的边缘机器作为部署应用程序的机器。

同样,我认为这更多地是一个关于如何将应用程序部署到YARN的问题。

票数 0
EN

Stack Overflow用户

发布于 2017-09-13 14:56:34

在Hadoop/纱线世界中,您总是需要客户端计算机上的配置文件。因此,您需要在本地获取它们。然而,你通常需要其中的一些,而不是全部。在大多数情况下,如果我没有弄错的话,只需使用hdfs-site.xml、core-site.xml和sar-site.xml就足够了。为了安全起见,请将它们全部复制到本地目录中。

然后在机器上的flink- role . will文件中配置以下参数,它将扮演客户端的角色,又名。你的工作将从。

代码语言:javascript
复制
fs.hdfs.hadoopconf: path_to_hadoop_conf_dir

然后,通过告诉flink工具使用纱线母版作为作业管理器,您应该能够启动纱线作业。

代码语言:javascript
复制
flink run -m yarn-cluster -yn <num_task_managers> -yjm <job_manager_memory> -ytm <task_manager_memory -c <main_class> <jar>

如果您已经在flink- your .your中配置了上述内存参数,则应该可以通过省略所有这些详细的参数来启动带有默认值的作业。

代码语言:javascript
复制
flink run -m yarn-cluster -n <num_task_managers> -c <main_class> <jar>

作为一个快速测试,您可以尝试在纱线上启动Scala外壳。

代码语言:javascript
复制
start-scala-shell.sh yarn -n <num_task_managers> -nm test_job
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/38943103

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档