腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2209)
视频
沙龙
1
回答
Flink
配置
,
避免
每次
提交
作业
时
都
上传
扩展
jar
、
、
Flink
是否有
避免
每次
提交
作业
时
都
上传
扩展
jars的
配置
,就像spark-submit中的spark.yarn.archive一样?我知道处理外部jars的方法,比如How to Reference the External
Jar
in
Flink
中的答案。例如fat
jar
、将
jar
复制到$
FLINK
/lib、-yt
配置<
浏览 78
提问于2019-10-14
得票数 0
回答已采纳
1
回答
在
每次
作业
提交
超过rest后,
作业
管理器中的
flink
磁盘使用率增加。
、
我已经在AWS ECS中部署了自己的
flink
设置。一个服务用于JobManager,一个服务用于任务管理器。我正在为
作业
管理器运行一个ECS任务,为任务经理运行3个ecs任务。我有一种批处理
作业
,我每天都使用
flink
rest
上传
新参数,当我
每次
提交
磁盘内存增加600 S3
时
,我给出了一个检查点作为S3。因为我在ECS上运行,所以在
每次
jar
上传
和执行时
都
找不到内存增加的原因。
浏览 2
提问于2021-03-29
得票数 1
1
回答
同一Apache
Flink
项目中的多个
作业
、
我在同一个
Flink
项目中有多个工作。我想知道,当我向
Flink
集群
提交
作业
时
,我不知道哪个
作业
正在为这个
提交
的
jar
运行。例如:然后,我更改job2,并创建新的
jar
文件。然后使用新
上传
的
ja
浏览 7
提问于2021-04-21
得票数 0
0
回答
在
flink
纱线集群
作业
中使用JNI
、
、
、
我有一个应用程序,它通过RemoteExecutionEnvironment scala API将Apache
Flink
作业
分派到AWS Elastic MapReduce YARN集群。这些
作业
使用JNI通过C库运行部分计算。看起来
Flink
在
每次
调度
作业
时
都会使用一个新的ClassLoader,而我在计算节点上得到了Native library already loaded in another classloader错误一些谷歌搜索告诉我,这是Tomcat应用程
浏览 2
提问于2016-07-08
得票数 3
2
回答
如何使用薄罐子而不是胖罐子?
、
、
我们目前正在使用maven-shade-plugin将我们的
Flink
应用程序部署为一个胖
jar
。问题是,每个应用程序
jar
最终大约为130-140MB,
每次
构建和部署都很痛苦。有没有一种方法可以排除依赖,只需将一个精简的
jar
部署到集群中,最高可达50 kB?
浏览 5
提问于2018-10-03
得票数 1
1
回答
Kubernetes中的
Flink
。如何将
提交
作业
步骤添加到jobmanager
flink
docker?
、
、
、
、
我在K8s中使用
Flink
。一切正常,但是当jobmanager启动
时
,我必须手动
提交
jar
。在这种情况下,如果JM关闭,K8s将启动新的pod并重新
提交
作业
。 我说的对吗?有没有人为
flink
做了这样的docker改变?
浏览 46
提问于2018-07-27
得票数 0
回答已采纳
1
回答
通过Rest
提交
作业
,并在运行中的Kubernetes集群上部署
Flink
(本机方式)
、
我已经实现了一个
作业
,并将其打包为
jar
。我已经在独立的
Flink
上测试过了。但是我的目标是通过
Flink
的Rest在应用程序模式下继续使用Kubernetes并部署我的应用程序。除了示例之外,我还检查了来自GitHub的
Flink
源代码,并试图找到一些示例实现或获得一些线索。我想下面这些
都
和我的案子有关。对于应用程序模式,在
提交
作业
之前是否需要初始化容器以服务
Flink
Rest服务?如果是的话,是JobManager吗? 对于
浏览 10
提问于2022-04-04
得票数 0
1
回答
在多个
flink
作业
管理器上上载
jar
、
因此,目前我们正在使用
flink
1.12在HA模式的生产。有3名工作经理(1名领导和2名待命人员)。当我把一个罐子
上传
到一个工作经理上
时
,不知怎么的,它并没有反映在其他的工作经理身上。有什么方法可以让我实现
上传
jar
到单个
作业
管理器的行为也会在HA的其他
作业
经理中得到反映?因此,我面临的问题是,当
jar
上传
到'A‘
作业
管理器
时
,但是当发送
作业
时
使用
浏览 1
提问于2021-12-25
得票数 0
1
回答
在apache
flink
上运行apache波束
、
apache站点在Apache上启动Python代码的命令如下: docker run --net=host apachebeam/
flink
1.9_job_server:latest --
flink
-master
浏览 6
提问于2020-03-01
得票数 0
1
回答
如何在Apache中使用
上传
的
jar
来
提交
作业
?
、
、
我已经通过curl将一个
jar
(它是通过word程序生成的)通过HTTP请求
上传
到Apache
Flink
web控制台,get显示了
上传
的
jar
。当我尝试使用该
jar
提交
作业
时
,它会抛出以下错误: 由: org.apache.
flink
.client.program.ProgramInvocationException:
JAR
文件不存在'/tmp/
fli
浏览 2
提问于2018-01-17
得票数 1
回答已采纳
1
回答
如何在
flink
作业
jar
较大
时
远程执行
flink
作业
、
我有运行在Kubernetes集群上的
flink
服务器。我有一个job
jar
,由于产品和第三方的依赖,它是笨重的。我通过
jar
环境= ExecutionEnvironment.createRemoteEnvironment(host,端口运行它);优化后的
jar
大小约为130MB。我希望在不使用
jar
upload的情况下调用remoteExecution,这样就不会在
每次
需要执行
作业
时
都
进行上载。有没有一种方法可以
上传</
浏览 49
提问于2019-03-18
得票数 0
1
回答
使用同一个
jar
与火花-
提交
、
我部署了一个
作业
的纱线集群模式,通过火花
提交
与我的
jar
文件。我
每次
提交
“相同的
jar
文件”
时
,
作业
都会进行部署,但
每次
提交
时
它都会
上传
到hadoop。我认为
每次
上传
相同的
jar
是不必要的。有没有办法
上传
一次,用罐子做纱线工作?
浏览 4
提问于2017-05-15
得票数 0
回答已采纳
2
回答
如何在
Flink
中加载外部jars
、
当我以独立集群模式向
Flink
提交
作业
时
,我发现
每次
taskManager都会从jobManager获取
jar
(即使是同一个
jar
),这需要很长时间。我想知道是否可以将这些jars保存在每个工作节点中,这样它们就可以在本地为
每次
运行自动加载jars。
浏览 49
提问于2018-12-18
得票数 0
1
回答
为什么运行示例
flink
应用程序会抛出此错误?
、
、
、
我正在尝试运行https://ci.apache.org/projects/
flink
/
flink
-docs-release-1.10/dev/projectsetup/java_api_quickstart.html我使用给定的脚本生成了项目: curl https://
flink
.apache.org/q/quickstart.sh | bash -s 1.10.0 并使用以下组件构建: mvn clean packa
浏览 17
提问于2020-03-31
得票数 0
1
回答
Flink
码头组合自定义库
、
、
、
、
/myLibrary.
jar
/opt/
flink
/lib/myLibary.
jar
在我的库中,我有一个
flink
映射操作符(称为DeserialisationMapper),它使用来自Kafka的JSON消息,并根据消息中的标记创建定制的当我为
作业
导出一个"f
浏览 6
提问于2020-11-11
得票数 0
2
回答
运行Fink应用程序建议(当然是在IDE之外)
我很乐意接受任何关于运行
Flink
应用程序的建议,因为它看起来有点像雷区。我在这里谈论Linux (Centos 7 dist),因为我甚至不想分享Windows抛给我的问题。最初,我试着通过maven用lib文件夹存放jars和config文件夹存放属性文件等,这是个灾难,因为它永远找不到任何东西(当通过java -
jar
启动
时
)。然后我尝试了maven shade插件来获取一个超级
jar
(它肯定是一个超级
jar
)--但是他死了,
Flink
找不到自己的参数工具依赖项。因此,我们放弃
浏览 0
提问于2017-12-11
得票数 0
1
回答
来自
Flink
作业
UI (Exception:org.apache.
flink
.client.program.OptimizerPlanEnvironment$ProgramAbortException)的
作业
提交
问题
:比如说
flink
-processor-0.1SNAPSHOT.
jar
,将它从
提交
作业
UI
上传
到JobManager。
上传
没有问题。
作业
提交
失败。在JobManager中,我看到以下错误。(StreamPlanEnvironment.java:53) 当我使用
flink
run命令
提交
相同的
作业
时
,它工作得很好。快速运行/Users/abc/targe
浏览 2
提问于2020-06-16
得票数 0
1
回答
Flink
:执行管道错误java.util.concurrent.TimeoutException:期货超时后[10000毫秒]
、
、
我正在使用
Flink
v1.4.0。...我确保通过IntelliJ编辑运行
配置
以添加:-Dakka.ask.timeout:600s 但例外情况依然存在,我不知道是什么原因造成的。当我试图通过
Flink
UI
提交
相同的
作业<
浏览 0
提问于2018-04-17
得票数 2
回答已采纳
1
回答
EMR群集上的
Flink
作业
“超出GC开销限制”
、
、
EMR-
Flink
作业
显示错误“超出GC开销限制错误”。EMR群集使用默认EMR角色在VPC内创建。Hadoop和
Flink
选项是从高级选项中选择的(我尝试了不同版本的Hadoop和
Flink
) Step方法用于
提交
带有参数集的自定义
jar
。在我的本地机器上,我没有遇到任何错误,并且无论读取请求中的数据大小如何,一切
都
正常。2:我还尝试在创建集群
时
提供
flink
配置
,例如 taskmanager.heap.mb:13
浏览 44
提问于2020-01-21
得票数 0
回答已采纳
1
回答
尽管设置了spark.yarn.conf,但火花程序集文件仍在
上传
、
、
、
我将
作业
提交
到运行在Yarn上的星火集群--有时通过相对缓慢的连接
提交
。为了
避免
为每个
作业
上传
156 job火花组装文件,我将
配置
选项spark.yarn.
jar
设置为HDFS上的文件。但是,这并不能
避免
上传
,而是从HDFS目录获取程序集文件,并将其复制到应用程序目录: $:~/spark-1.4.0-bin-hadoop2.6$ bin/spark-submit --class MyClass-
浏览 2
提问于2015-07-06
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
蚂蚁实时计算团队的AntFlink提交攻坚之路
Flink 中的应用部署:当前状态与新应用模式
起底eBay Flink的上云之路
基于 Flink 打造的伴鱼实时计算平台 Palink 的设计与实现
基于Flink的高可靠实时ETL系统
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券