前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >流计算中的window计算 | 青训营笔记

流计算中的window计算 | 青训营笔记

作者头像
鳄鱼儿
发布2024-05-21 13:36:17
940
发布2024-05-21 13:36:17
举报

这是我参与「第四届青训营 」笔记创作活动的第5天

流计算中的window计算

回顾下批式计算和流式计算的区别:

就数据价值而言,数据实时性越高,数据价值越高

批处理

批处理模型典型的数仓架构为T+1架构,即数据计算是按天计算的,当天只能看到前一天的计算结果。通常使用的引擎为Hive或者Spark等。计算的时候,数据是完全ready的,输入和输出都是确定性的

处理时间窗口

实时计算:处理时间窗口

数据实时流动,实时计算,窗口结束直接发送结果,不需要周期调度任务

处理时间和事件时间

处理时间:数据在流式计算系统中真正处理时所在机器的当前时间

事件时间:数据产生的时间,比如客户端、传感器、后端代码等上报数据时的时间

事件时间窗口

实时计算:事件时间窗口

数据实时进入到真实事件发生的窗口中进行计算,可以有效的处理数据延迟和乱序。

Watermark

watermark表示为系统认为的当前真实的事件时间。

在数据中插入一些watermark ,来表示当前的真实时间。

在数据存在乱序的时候,watermark就比较重要了,它可以用来在乱序容忍和实时性之间做一个平衡。

Watermark产生

SQL:

代码语言:javascript
复制
CREATE TABLE Orders (
  user BIGINT ,
  product STRING,
  order_ time TIMESTAMP(3) ,
  WATERMARK FOR order_ time AS order_ time - INTERVAL '5' SECOND
)WITH(...);

DataStream

代码语言:javascript
复制
WatermarkStrategy
  .<Tuple2<Long, String>>forBounded0ut0fOrderness (Duration.ofSeconds (20))
  .withTimestampAssigner((event, timestamp) -> event.f0);

Watermark传递

经典问题

Per-partition VS per-subtask watermark生成

  • Per-subtask watermark生成
    • 早期版本都是这种机制。典型的问题是如果一个source subtask 消费多个partition , 那么多个partition之间的数据读取可能会加剧乱序程度。
  • Per-partition watermark生成
    • 新版本引入了基于每个partition 单独的watermark生成机制,这种机制可以有效避免.上面的问题。

部分partition/subtask断流

根据上面提到的watermark传递机制,下游subtask会将.上游所有subtask的watermark值的最小值作为自身的watermark值。如果上游有一个subtask 的watermark不更新了,则下游的watermark都不更新。

  • 解决方案: Idle source
    • 当某个subtask断流超过配置的idle超时时间时,将当前subtask置为idle,并下发一个 idle的状态给下游。下游在计算自身 watermark的时候,可以忽略掉当前是idle的那些subtask。

迟到数据处理

因为watermark表示当前事件发生的真实时间,那晚于watermark的数据到来时,系统会认为这种数据是迟到的数据。

算子自身来决定如何处理迟到数据:

  • Window聚合 ,默认会丢弃迟到数据
  • 双流join,如果是outer join,则可以认为它不能join到任何数据
  • CEP,默认丢弃

Window

Window包括滚动窗口(Tumble Window)、滑动窗口(Sliding Window)、会话窗口(Session Window)等。

Window使用

滚动窗口

窗口划分:1.每个key单独划分 2.每条数据只会属于一个窗口

窗口触发:Window结束时间到达的时候一次性触发

滑动窗口

窗口划分:1.每个key单独划分 2.每条数据可能会属于多个窗口

窗口触发:Window结束时间到达的时候一次性触发

会话窗口

窗口划分:1.每个key单独划分 2.每条数据会单独划分为一个窗口,如果window之间有交集,则会对窗口进行merge

窗口触发:Window结束时间到达的时候一次性触发

迟到数据处理

一条数据到来后,会用WindowAssigner给它划分一个window,一般窗口是一个时间区间,如果划分出来的window end比之前的watermark值还小,说明这个窗口已经触发了计算了,这条数据会被认为是迟到数据

什么情况下会产生迟到数据?

只有事件时间下才会有迟到的数据。

迟到数据默认处理?

丢弃

如何处理

  1. Allow lateness
    • 这种方式需要设置一个允许迟到的时间。 设置之后,窗口正常计算束后,不会马.上清理状态,而是会多保留allowLateness这么长时间,在这段时间内如果还有数据到来,则继续之前的状态进行计算。
    • 适用于: DataStream、SQL
  2. SideOutput (侧输出流)
    • 这种方式需要对迟到数据打一个tag ,然后在DataStream上根据这个tag获取到迟到数据流,然后业务层面自行选择进行处理。
    • 适用于: DataStream

增量计算、全量计算

增量计算

  • 每条数据到来,直接进行计算,window只存储计算结果。比如计算sum,状态中只需要存储sum的结果,不需要保存每条数据。
  • 典型的reduce、aggregate等函数都是增量计算
  • SQL中的聚合只有增量计算

全量计算

  • 每条数据到来,会存储到window的state中。等到window触发计算的时候,将所有数据拿出来一起计算。
  • 典型的process函数就是全量计算

EMIT触发

什么叫EMIT ?

通常来讲window 都是在结束的时候才 能输出结果,比如1h的tumble window ,只有在1个小时结束的时候才能统一输出结果。

如果窗口比较大,比如1h或者1天,甚至于更大的话,那计算结果输出的延迟就比较高,失去了实时计算的意义。

EMIT输出指的是,在window没有结束的时候,提前把window计算的部分结果输出出来。

怎么实现?

在DataStream里面可以通过自定义Trigger来实现,Trigger的结果可以是:

  • CONTINUE
  • FIRE (触发计算,但是不清理)
  • PURGE
  • FIRE AND PURGE

SQL也可以使用,通过配置:

  • table.exec.emit.early-fire.enabled=true
  • table.exec.emit.early-fire.delay= {time}

Window优化

Mini-batch优化

Mini-batch优化解决频繁访问状态的问题

一般来讲,Flink的状态比较大一些都推荐使用rocksdb statebackend,这种情况下,每次的状态访问就都需要做一次序列化和反序列化,这种开销还是挺大的。为了降低这种开销,我们可以通过降低状态访问频率的方式来解决,这就是mini-batch最主要解决的问题:即赞一小批数据再进行计算,这批数据每个key的state访问只有一次,这样在单个key的数据比较集中的情况下,对于状态访问可以有效的降低频率,最终提升性能。

mini-batch看似简单,实际上设计非常巧妙。假设用最简单的方式实现,那就是每个算子内部自己进行攒一个小的batch,这样的话,如果上下游串联的算子比较多,任务整体的延迟就不是很容易控制。所以真正的mini-batch实现,是复用了底层的watermark传输机制,通过watermark事件来作为mini-batch划分的依据,这样整个任务中不管串联的多少个算子,整个任务的延迟都是一样的,就是用户配置的delay时间。

倾斜优化 local-global

local-global 优化解决倾斜问题。local-global优化是分布式系统中典型的优化,主要是可以降低数据shuffle的量,同时也可以缓解数据的倾斜。

所谓的local-global,就是将原本的聚合划分成两阶段,第一阶段先做一个local的聚合,这个阶段不需要数据shuffle,是直接跟在上游算子之后进行处理的;第二个阶段是要对第一个阶段的结果做一个merge。

Distinct 计算状态复用

Distinct 状态复用降低状态量。对于distinct的优化,一般批里面的引擎都是通过把它优化成aggregate的方式来处理,但是在流式window中,我们不能直接这样进行优化,要不然算子就变成会下发retract的数据了。所以在流式中,对于count distinct这种情况,我们是需要保存所有数据是否出现过这样子的一个映射。

Pane 优化

Pane 优化降低滑动窗口的状态存储量。滑动窗口一条数据可能会属于多个window。所以这种情况下同一个key下的window数量可能会比较多,比如3个小时的窗口,1小时的滑动的话,每条数据到来会直接对着3个窗口进行计算和更新。这样对于状态访问频率是比较高的,而且计算量也会增加很多。

优化方法就是,将窗口的状态划分成更小粒度的pane,比如上面3小时窗口、1小时滑动的情况,可以把pane设置为1h,这样每来一条数据,我们就只更新这条数据对应的pane的结果就可

小结

  1. Mini-batch 优化解决频繁访问状态的问题
  2. local-global 优化解决倾斜问题
  3. Distinct 状态复用降低状态量
  4. Pane 优化降低滑动窗C的状态存储量
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-05-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 流计算中的window计算
    • 批处理
      • 处理时间窗口
        • 处理时间和事件时间
          • 事件时间窗口
            • Watermark
              • 经典问题
          • Window
            • 滚动窗口
              • 滑动窗口
                • 会话窗口
                  • 迟到数据处理
                    • 如何处理
                  • 增量计算、全量计算
                    • EMIT触发
                    • Window优化
                      • Mini-batch优化
                        • 倾斜优化 local-global
                          • Distinct 计算状态复用
                            • Pane 优化
                              • 小结
                              相关产品与服务
                              流计算 Oceanus
                              流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的企业级实时大数据分析平台,具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
                              领券
                              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档