腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2586)
视频
沙龙
1
回答
Flink
windowAll
聚合
比
窗口
进程
?
、
我们在1分钟内
聚合
一些数据,然后将这些数据刷新到一个文件中。数据本身就像一个地图,其中key是一个对象,value也是一个对象。由于我们需要一起刷新数据,因此我们没有执行任何keyBy,因此使用了
windowAll
。我们面临的问题是,如果我们在ProcessAllWindowFunction中使用
窗口
函数,然后在
进程
调用中
聚合
,那么当我们使用
聚合
和
窗口
函数时,我们会获得更好的吞吐量。我试着浏览了代码库,我能想到的唯一假设是,对
进程
将使用的ListSta
浏览 20
提问于2021-04-19
得票数 0
回答已采纳
1
回答
在StreamAPI上高效的
Flink
排序
、
、
除了
WindowAll
操作之外,还有其他方法可以有效地对DataStream进行排序吗?一种选择是在
聚合
函数之后使用
windowAll
函数,并在内存中进行排序。问题是-
windowAll
会将并行度降低到1,并且它要求将所有数据放在同一个任务槽中以执行排序操作。理想情况下,当我们
浏览 0
提问于2021-02-15
得票数 0
2
回答
在
Flink
中,为什么DataStream不支持
聚合
、
我是
Flink
的新手。有时,我想在不需要先做keyBy的情况下在DataStream上进行
聚合
。为什么
Flink
不支持
聚合
(sum、min、max等)在DataStream上? 谢谢你艾哈迈德
浏览 1
提问于2021-03-16
得票数 1
1
回答
如何使用
flink
来流json?
、
、
、
、
我实际上是在处理一个流,接收一串字符串,需要对所有字符串进行计数。和是累加的,这意味着对于第二个记录来说,和被添加到输出的前一天必须是一个类似于json文件的文件。"aggregationType" : "day","aggregates" : [ "sum" : 120}, "su
浏览 0
提问于2018-03-20
得票数 3
回答已采纳
1
回答
滚动
窗口
后执行
flink
接收器
、
另外,在AWS动态数据分析应用程序上运行我的
Flink
工作我在这里所做的是从运动流中得到大量的这些事件,我希望每10秒将videoDuration加到
窗口
中
浏览 7
提问于2021-12-13
得票数 0
回答已采纳
1
回答
Flink
:将时间
窗口
中所有键的结果合并
、
.aggregate(<aggFunc>, <function adding window key and start wd time>) .addSink(sink)1.(<aggregated val>, key3, <window1-start-time)
窗口<
浏览 0
提问于2018-12-04
得票数 2
回答已采纳
1
回答
Apache,每天轮班的事件时间
窗口
、
、
我的
Flink
工作必须在每一次工作轮班后计算一定的
聚合
。我想出了一些基于GlobalWindow和自定义触发器的东西:
浏览 2
提问于2020-11-06
得票数 0
1
回答
有没有人有一个ProcessFunction的好例子,它可以以某种频率对数据进行求和或
聚合
。
我正在模拟一个
窗口
().reduce()操作的行为,但是在任务管理器级别上没有键。有点像对流的.
windowAll
().reduce(),但我希望从每个任务管理器中获得单独的结果。我试着搜索"
flink
processFunction示例“,但是找不到任何有用的东西。
浏览 4
提问于2017-10-05
得票数 2
回答已采纳
1
回答
寻找
windowAll
()的另一种形式,将数据保存在同一节点上进行
聚合
、
我有一个高度并行化的
聚合
,我在多个节点上运行了很多密钥。summaryStream = myStream // parallelism is 1 by definition .
windowAll
这显然是因为所有的数据都是
聚合
在一起的,并行性是'1‘。
Flink
中是否有任何当前或计划中的规定来进行更多的两层汇总,将所有数据保存在每个节点上,在将结果发送到第二层以进行最终
聚合
之前
浏览 3
提问于2017-08-05
得票数 3
2
回答
APACHE与tumblingWindow一起计数事件,但如果没有发生事件,也发送0
、
我需要在一个翻滚的
窗口
里数数事件。但是,如果
窗口
中没有事件,我也希望发送0值的事件。import com.google.protobuf.Message; }并在此使用 DataStream<AggregateOuterCl
浏览 5
提问于2020-06-17
得票数 1
回答已采纳
1
回答
在
Flink
中处理倾斜数据的其他选项是什么?
、
、
、
我正在研究
Flink
中的数据倾斜处理,以及如何改变低,以便对元组进行均匀处理。我创建了合成的、倾斜的数据源,我的目标是通过
窗口
处理(
聚合
)它们。这是。addSink(new MqttStationPlatformPublisher(ipAddressSink, topic)).name(metricSinkFunction)根据
Flink
然而,令我惊讶的是,我无法在
窗口
操作中使用setParallelism(4)。文件上说 注意:这个操作本质上是非并行的,因为所有元素都必须通过同一
浏览 0
提问于2019-04-10
得票数 0
回答已采纳
1
回答
处理连续的消息
、
我有一个物体坐标流(time,x,y),我想把它转换成一个距离流,然后再转换成一个速度流。为此,我每次需要处理两个连续的消息。
浏览 10
提问于2018-02-19
得票数 0
回答已采纳
1
回答
在
flink
sql或表api中每个操作符并行性的控制
、
、
我正在使用
Flink
定义一个流作业,它从一个无限制的源(google PubSub)读取,并使用HBase接收器写入Google BigTable。该查询正在对流进行
窗口
化,并在将这些
窗口
写入BigTable之前在这些
窗口
上应用一些
聚合
函数。我们希望能够为每个子任务定义不同的并行性,前提是第二个子任务可以受益于
比
源子任务所
浏览 9
提问于2022-04-21
得票数 1
2
回答
Flink
WaterMark和触发器-延迟元素不会在事件时间被丢弃?
、
、
当事件时间水印时,
Flink
如何处理延迟的元素,我有些困惑。import org.apache.
flink
.api.scala._ )) .
浏览 3
提问于2018-05-01
得票数 3
回答已采纳
1
回答
Flink
中的预洗牌
聚合
、
我们正在将火花作业迁移到
flink
。我们已经在火花中使用了预洗牌
聚合
。是否有办法在火花中执行类似的操作。我们正在消耗来自apache kafka的数据。我们正在使用键控滚动
窗口
来
聚合
数据。我们希望在执行洗牌之前将数据
聚合
到
flink
中。
浏览 11
提问于2021-08-17
得票数 3
回答已采纳
1
回答
Flink
:将
窗口
集合附加到事件中
、
我们希望使用
Flink
来维护
窗口
聚合
,作为事务监视应用程序的一部分。它们将使用滑动
窗口
定义。例如:“过去5天的现金交易总额”。下面是我需要
Flink
应用程序做的工作: 1.通过读取历史
聚合
和构建windows 2来准备事务处理。对于每个新事务: a.用新的事务数据b更新
窗口
聚合
。找到与传入时间戳匹配的
窗口
,并将
聚合
值添加到事务c。通过RabbitMQ或Kafka接收器将增强的事务(原始字段+
聚合
)发
浏览 5
提问于2017-06-23
得票数 0
2
回答
闪烁和非键控
窗口
状态
、
、
、
、
我正在创建一个
Flink
应用程序,它简单地将
窗口
传入的Kafka事件转发到另一个Kafka主题,并为每个
窗口
添加开始和结束标记-例如,对于一个包含1, 2, 3, 4, 5的1小时
窗口
,我会将start_timestamp据我所知,使用带有注入开始和结束标记的ProcessAllWindowFunction的
windowAll
()应该可以做到这一点。我的问题是关于国家管理的。我将使用RocksDb状态后端-即使对于这个无键的流,它也会保持内部
窗口
状态吗?我主要关心的是能够将状态保留在<e
浏览 39
提问于2021-02-03
得票数 0
回答已采纳
1
回答
Flink
:
Flink
是否支持抽象操作符,它可以处理具有公共字段的不同数据流?
、
、
{ } }但是,当我尝试使用这个操作符来实现
Flink
浏览 2
提问于2020-05-14
得票数 0
回答已采纳
1
回答
Flink
窗口
状态大小和状态管理
、
在阅读了
flink
的文档和搜索之后,我不能完全理解
flink
是如何处理
窗口
中的状态的。假设我有一个每小时滚动一次的
窗口
,其中包含一个
聚合
函数,该函数将msg累积到某个java pojo或scala case类中。该
窗口
的大小是与在一个小时内进入该
窗口
的事件的数量相关,还是仅仅与pojo/case类相关,因为im将事件累加到该对象中。另外,如果我使用pojos或case类,
flink
是否会为我处理状态(如果内存耗尽,会溢出到磁盘/在检
浏览 49
提问于2019-03-20
得票数 5
回答已采纳
1
回答
与StatsD计数器度量比较的
Flink
、
、
每当应用程序收到对StatsD守护
进程
的请求时,都会使用StatsD。守护
进程
有一个刷新间隔集,当它在此期间将此计数器的
聚合
推送到外部后端时。此外,它还将计数器重置为0。试图把这个映射到
Flink
计数器。因此,应将
flink
计数器报告
浏览 2
提问于2020-01-23
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深入解读Flink窗口的应用与实现
Flink 窗口是什么?
Flink实现高效实时处理百万级数据:实践与优化
Flink 运行架构详解
在流式系统中如何引入Watermark支持:以Pravega和Flink为例
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券