腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4748)
视频
沙龙
1
回答
Apache
Flink
:
如何
使用
本地
预
聚合
计算
窗口
?
apache-flink
、
flink-streaming
我有一个DataStream,需要在它上面
计算
一个
窗口
聚合
。当我执行常规
窗口
聚合
时,网络IO非常高。因此,我希望执行
本地
预
聚合
,以减少网络IO。我想知道是否有可能在
本地
对任务管理器进行
预
聚合
(即,在混洗记录之前),然后执行完整的
聚合
。
使用
Flink
的DataStream应用程序接口可以做到这一点吗?
浏览 25
提问于2017-12-15
得票数 2
1
回答
Flink
中的
预
洗牌
聚合
apache-flink
、
flink-streaming
我们正在将火花作业迁移到
flink
。我们已经在火花中
使用
了
预
洗牌
聚合
。是否有办法在火花中执行类似的操作。我们正在消耗来自
apache
kafka的数据。我们正在
使用
键控滚动
窗口
来
聚合
数据。我们希望在执行洗牌之前将数据
聚合
到
flink
中。
浏览 11
提问于2021-08-17
得票数 3
回答已采纳
1
回答
Apache
Flink
:在一个
窗口
中
计算
和输出多个值
apache-flink
我们计划
使用
Apache
Flink
对多种类型的对象执行实时
聚合
。我们需要支持几种类型的
聚合
,如sum,max,min,average等-到目前为止没有什么特别的我的问题是,用
Flink
实现这种要求的最佳方式是什么?我们考虑
使用
一个自定义
窗口
函数,该函数将在
窗口<
浏览 3
提问于2017-06-05
得票数 4
1
回答
在
Apache
中
聚合
两种不同类型的记录
apache-flink
我有一个特定的任务,
使用
Apache
Flink
和一些额外的逻辑将两个数据流连接到一个
聚合
中。事件数据流( Data of events )开始根据某些键在某个
聚合
或
窗口
中不断积累Type A;The记录的记录;(元事件数据
浏览 6
提问于2020-07-06
得票数 0
回答已采纳
1
回答
在
Flink
Streaming中按键对记录进行分组并收集到ListBuffer中
apache-flink
、
flink-streaming
我有一个DataStream[(String, somecaseclass)]类型的
Flink
DataStream。我检查了
Flink
DataStream上几乎所有的转换,但没有一个适合用例。
浏览 12
提问于2017-12-28
得票数 3
回答已采纳
1
回答
在纱线上
使用
Ignite确保
本地
缓存
apache-flink
、
ignite
、
flink-streaming
我有一个用
Flink
编写的流处理应用程序&我想从状态后端
使用
它的内部键值存储来
计算
流
聚合
。因为我要处理大量的
聚合
,所以我希望避免像当前提供的内存备份和文件备份实现那样,在
Flink
应用程序内部将它们维护在堆上。取而代之的是,我希望在
Apache
Ignite中维护一个状态缓存,这样就可以
使用
直写和直读特性在HBase中提供更可靠的备份。理想情况下,我应该在每个物理节点上都有一个
本地
Ignite缓存,用于处理该节点上所有长期运行
浏览 3
提问于2016-02-08
得票数 1
2
回答
Flink
表异常:只能在时间属性列上定义
窗口
聚合
,但遇到时间戳(6)
apache-flink
、
flink-streaming
、
flink-sql
、
flink-table-api
我正在
使用
flink
1.12.0。试图将数据流转换为表A,并在tableA上运行sql查询,以便按下面的方式通过
窗口
进行
聚合
,我
使用
f2列作为时间戳数据类型字段。kafka test");当我执行上述代码时,我得到 线程“主”org.
apache
.
flink
.table.api.TableException中的异常:
窗口
聚合
只能在时间属性列上定义,但是遇到时间戳在org.
apache
.
fli
浏览 5
提问于2021-02-15
得票数 0
回答已采纳
1
回答
单个数据流上的多个滑动
窗口
apache-flink
、
sliding-window
我目前正在解决
Flink
中的一个问题,其中我必须
计算
窗口
大小为7天、14天和1个月的三个不同滑动
窗口
的
聚合
函数。据我所知,我将不得不运行三个不同的消费者,具有上述的
窗口
大小。是否有一种方法可以为单个数据流实现三个滑动
窗口
,所有这些都
使用
单个
使用
者代码?
使用
Flink
实现此功能的一些代码或引用是非常值得注意的。我知道的是:消费者1在7天的滑动
窗口
上
计算
,消费者2在1
浏览 1
提问于2019-06-26
得票数 0
1
回答
Flink
流: TriggerResult.FIRE和TriggerResult.FIRE_AND_PURGE的区别
apache-flink
、
flink-streaming
我有一个
Flink
流媒体程序,在10秒的会话
窗口
中
计算
出卡夫卡的一些内容。会话
窗口
默认触发器为FIRE。如果我
使用
FIRE_AND_PURGE,什么会被清除?
浏览 4
提问于2019-02-19
得票数 2
回答已采纳
1
回答
Flink
Session
窗口
:计数事件并在特定事件计数时触发
apache-flink
、
flink-streaming
当
窗口
中有5个事件时,我
使用
自定义触发器来触发。这对于TumblingEventTimeWindow和SlidingTimeWindow都很有效,因为它们都有固定的
窗口
开始和结束。但该逻辑不适用于会话
窗口
,因为每个事件都会导致创建一个
窗口
,然后再进行合并。我
使用
reducing状态来
计算
事件数。 required
浏览 1
提问于2018-03-29
得票数 1
1
回答
滑动时间
窗口
的
Flink
性能问题
apache-flink
我正在尝试一些网络监控工作的
flink
。我的目标是
计算
每个src_ip的不同src_ip。 下面的代码可以工作,但是性能确实很差。似乎每个滑动
窗口
重新
计算
所有事件,但这不应该是必要的。例如,我们有活动准时第二次1- 600.
Flink
可以得到每秒钟的累加器,所以我们每秒钟有600个累加器。当第一个滑动
窗口
过期时,
flink
只合并1到300的累加器,并销毁第二个1的累加器。此
窗口
还可以在最后一秒钟前将1-299进行
预
合并。当第二个滑动<
浏览 1
提问于2018-08-23
得票数 3
1
回答
利用输入分区来避免任务管理器之间的通信。
apache-flink
、
apache-beam
、
flink-streaming
我们有一个
Flink
管道,通过将数据与相同的键("client-id")结合在同一个
窗口
中,
聚合
每个“客户端”的数据。这个问题是微不足道的并行性的,并且输入Kafka主题有几个分区(与
Flink
并行性相同的数字)--每个分区都包含一个客户端的子集。也就是说,一个客户端总是在一个特定的Kafka分区中。,如果后者是真的--我们能以某种方式避免重组,并按照输入分区分配的方式将数据保持在每个操作符的
本地
吗? 注意:我们实际上是在
使用
带有
Flink
后端的<e
浏览 5
提问于2021-11-05
得票数 0
回答已采纳
1
回答
具有
窗口
和状态的
flink
聚合
apache-flink
、
flink-streaming
我正在寻找一种在具有状态的
窗口
上实现
聚合
/折叠函数的方法。我了解
如何
在
窗口
上进行
聚合
,以及
如何
使用
键/全局状态--但两者都不知道。为了明确起见,当我说一个带有状态的
窗口
时--我的意思是,每次更改/移动时,状态都应该初始化(无效)。 例如:我希望每5分钟按事件类型
计算
事件数。但是,除了事件类型(即
窗口
键)之外,事件还有一些id字段--我只想计数每个id一次--所以我需要保存我在该
窗
浏览 4
提问于2017-04-23
得票数 3
1
回答
在StreamAPI上高效的
Flink
排序
sorting
、
apache-flink
、
flink-streaming
让我们以
Flink
示例中定义的页面视图的用例为例。此示例尝试
聚合
每15分钟
窗口
的页面查看计数。 如果我想要改变这一点以获得15个
窗口
的前3个页面浏览量,那么有效的方法是什么?一种选择是在
聚合
函数之后
使用
windowAll函数,并在内存中进行排序。问题是- windowAll会将并行度降低到1,并且它要求将所有数据放在同一个任务槽中以执行排序操作。在我的用例中,在15分钟的
窗口
内将有数百万或数十亿个键,因此,所有这些百万或数十亿
聚合
的行都必须通过网络,这
浏览 0
提问于2021-02-15
得票数 0
1
回答
Flink
:将
窗口
集合附加到事件中
apache-flink
、
flink-streaming
我们希望
使用
Flink
来维护
窗口
聚合
,作为事务监视应用程序的一部分。它们将
使用
滑动
窗口
定义。例如:“过去5天的现金交易总额”。下面是我需要
Flink
应用程序做的工作: 1.通过读取历史
聚合
和构建windows 2来准备事务处理。对于每个新事务: a.用新的事务数据b更新
窗口
聚合
。找到与传入时间戳匹配的
窗口
,并将
聚合
值添加到事务c。通过RabbitMQ或Kafka接收器将增强的事务(
浏览 5
提问于2017-06-23
得票数 0
1
回答
Flink
文件系统支持
apache-flink
博士说“一个不完整的列表”。我在哪里可以找到一个完整的?
浏览 5
提问于2018-08-08
得票数 0
1
回答
如何
在
Flink
中
使用
单个
窗口
进行多个
聚合
?
apache-spark
、
bigdata
、
apache-flink
、
flink-streaming
但是在
Flink
中,似乎任何
聚合
都应该
使用
特定的
窗口
执行,如下所示 .window(???) // window 1如果我设置了
窗口
2,那么第二个
聚合
的输入数据可能不是第一个
聚合
的输出,这将违背我的意愿。 我希望
使用
相同的批处理数据进行多个连续
聚合
,这些数据可以在单个
窗口
中收集。<
浏览 4
提问于2022-04-20
得票数 0
1
回答
如何
过滤大于
flink
中某一点的值?
apache-flink
第一个是基于时间的流,我
使用
countTimeWindow接收前10个数据点来
计算
STAT值。我手动
使用
了变量cnt来只保留第一个
窗口
,并过滤了剩余的值,如下面的代码所示。然后,我想
使用
这个值来过滤主流,以便获得比我在
窗口
流中
计算
的stat值更大的值。 然而,我不知道
如何
合并或
计算
这两个流来实现我的目标。; import org.
apache
.
flink
.api.common.functions.M
浏览 10
提问于2019-02-12
得票数 0
回答已采纳
1
回答
在
Flink
中的
聚合
原语中具有与HOP_START等效项
apache-flink
、
flink-streaming
、
windowing
、
apache-calcite
、
flink-sql
我正在尝试在
Flink
SQL的跳跃
窗口
上做一个指数衰减的移动平均值。at org.
apache
.
flink
.table.codegen.CodeGenerator$$anonfun$visitCall$3.apply(CodeGenerator.scala:1027):66) 当它在
聚合
和之外工作时,它确实是未实现的。现在,问题是:我可以转换这个表达式并在
聚合
之外进行最后的处理,例如exp(x+y) = exp(x)*exp(y);但是我坚持
使用
TIMESTAMPDI
浏览 115
提问于2019-02-13
得票数 0
1
回答
Flink
Windows -
如何
在新事件出现时立即发出中间结果?
apache-flink
、
flink-streaming
、
flink-sql
Flink
1.14,Java,Table + DataStream API (toDataStream/toAppendStream)。并且在新事件出现时立即将结果重新插入Cassandra,换句话说,在每个新事件上创建新记录或重新
计算
已经存在的记录,并立即将结果汇到Cassandra。为此,我
使用
SQL:TUMBLE(TABLE mytable, DESCRIPTOR(action_datetime), INTERVAL '1' HOURS) 与连续表上
浏览 11
提问于2022-09-26
得票数 0
回答已采纳
点击加载更多
相关
资讯
Flink概念:编程模型下
Apache Flink本地安装及Example运行
新老手都值得看的Flink关键技术解析与优化实战
Flink+ClickHouse 玩转企业级实时大数据开发(完结)
什么是 Apache Flink?
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
语音识别
活动推荐
运营活动
广告
关闭
领券