腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(197)
视频
沙龙
2
回答
在
Flink
Table
API
中
应用
翻滚
窗口
聚
合时
,
在
kafka
主题
接收器
中
无结果
、
、
我使用的是lyft
flink
operator部署的
Flink
1.14 我正在尝试使用
Table
API
使tumble
窗口
聚合,从transactions表源读取,并将
窗口
的聚合结果放入新的
kafka
scan.startup.mode' = 'earliest-offset',\n"+ " 'format' = 'debezium-json'\n&quo
浏览 126
提问于2021-11-14
得票数 0
回答已采纳
1
回答
使用Python的
Kafka
Flink
、
我看不到太多关于
kafka
flink
连接器python的信息。我知道它是beta version.can,我使用kafkaflink连接器
API
,使用python.If是的,给我推荐一个这个连接器的程序。我也提到了Apache
Flink
:
Kafka
connector in Python streaming
API
, "Cannot load user class",.Also,我可以使用python
API
的滑动
窗口
的概念吗?
浏览 31
提问于2020-01-23
得票数 0
2
回答
如何动态获取
Flink
卡夫卡消费者
中
的卡夫卡
主题
名?
、
、
、
目前,我有一个
Flink
集群,它希望用一个模式来使用
Kafka
主题
,通过这种方式,我们不需要维护一个硬代码
Kafka
主题
列表。import java.util.regex.Pattern;import org.apache.
flink
.streaming.connectors.
kafka
.FlinkKafkaCo
浏览 1
提问于2019-07-30
得票数 1
回答已采纳
2
回答
卡夫卡-> DataStream -> MongoDB
、
、
、
我想设置
Flink
,这样它就可以将数据流从Apache转换并重定向到MongoDB。出于测试目的,我构建在
flink
流-Connectors.
kafka
示例()之上。我发现的关于MongoDB集成的唯一例子是来自github的
flink
-mongodb测试。不幸的是,它使用的是静态数据源(数据库),而不是数据流。我是否需要编写自定义
接收器
函数,还是可能遗漏了什么?也许应该用不同的方式来做?下面是一个例子,我作为输入得到了什么,作为输出我需要存储什么。Apa
浏览 3
提问于2016-02-02
得票数 11
回答已采纳
1
回答
Kafka
-两个特定事件之间的
窗口
、
例如,用户点击按钮'A‘,点击按钮'B’后的一段时间,我想统计在这段时间内有多少事件(来自其他
主题
)已经到达。我
在
我的
应用
程序
中
面临的一般概念是,我的事件具有持续时间,它们不是在给定时间独立发生的单个事件。在这个例子
中
,点击按钮'A‘将是事件的开始,点击按钮'B’将是结束。我的问题是,
kafka
提供的
窗口
过程(
翻滚
、跳跃、滑动、会话)不适合我的场景。有没有其他方法可以
在
Kafka</em
浏览 29
提问于2020-11-09
得票数 0
1
回答
测试
kafka
和
flink
集成流程
、
、
、
例如,我想测试卡夫卡/
Flink
与FlinkKafkaConsumer011和FlinkKafkaProducer011的集成。这一进程将是: 对于一个字符串示例,它将是,从输入
主题
读取字符串,转换为大写,写入一个新
主题
。
浏览 0
提问于2018-04-16
得票数 3
2
回答
未写入本地文件系统的
Flink
SQL滚转聚合结果
、
、
、
上下文--我使用的是
Flink</
浏览 12
提问于2021-11-15
得票数 0
2
回答
Apache
Flink
State Store与
Kafka
Streams
、
、
、
据我所知,处理
Kafka
流的状态在内存、磁盘或
Kafka
主题
中都是本地的,因为所有的输入数据都来自一个分区,其中所有的消息都是由一个定义的值键控的。大多数情况下,计算可以
在
不知道其他处理器的状态的情况下完成。如果是这样的话,您有另一个Streams实例来计算结果。如图所示:
Flink
到底在哪里存储它的状态?
Flink
是否也可以
在
本地存储状态,或者总是将它们发布到所有实例(任务)?是否可以将
Flink
配置为将状态存储
在
<em
浏览 0
提问于2019-02-10
得票数 3
1
回答
用
Kafka
和Pandas
在
Python上的
Flink
不会让它下沉
、
、
、
我使用
Flink
1.11 (通过Python和Anaconda虚拟环境),并将
Kafka
作为我的源和
接收器
。我将我的
Flink
作业提交到一个集群
中
。所有的一切都是
在
码头(当地)进行的。由于我对它还不熟悉,现在我已经设置了它,因为它实际上是作为传递--使用一些
窗口
,然后慢慢地构建起来的。从这里开始,这很好,
在
新的
Kafka
主题
中出现了一些信息:
table
.insert_into("s
浏览 3
提问于2020-08-28
得票数 0
1
回答
如何在写入apache
中
的自定义
接收器
之前缓冲记录
、
、
我对
Flink
相当陌生,
在
技术用例方面需要一些帮助。我有一个
在
GKE上运行的
flink
应用
程序,并使用自定义
接收器
将记录(从
Kafka
源)写入BigQuery。目前,记录被一个接一个地写入
接收器
中
,因此每个
kafka
消息都会得到自己对BigQuery的插入
api
调用,这并不理想,因为我们需要执行批量插入,并且单独插入每个记录将非常昂贵。新要求:
在
将记录写入BigQu
浏览 5
提问于2022-10-18
得票数 2
回答已采纳
1
回答
Flink
Stream
窗口
内存使用情况
、
我正在专门评估
Flink
的流式
窗口
支持,以支持可能的警报生成。我关心的是内存的使用,所以如果有人能在这方面提供帮助,我将不胜感激。producer ->
kafka
-> flinkkafkaconsumer ->
table
.window(Tumble.over("
浏览 0
提问于2017-11-04
得票数 2
1
回答
日时间间隔的常量无效: org.apache.
flink
.
table
.
api
.ApiExpression
、
、
我有以下简单的代码,执行基于处理时间的
翻滚
窗口
,与表
api
,但异常抛出时,我运行它。我不知道它在说什么,有人能帮我看看吗?谢谢!import org.apache.
flink
.streaming.
api
.scala._import org.apache.
flink
.<
浏览 85
提问于2021-01-05
得票数 0
回答已采纳
1
回答
如何在未加密钥的流上缩放
flink
、
、
我的数据位于100个
kafka
分区
中
,
在
将它们发送到自定义HTTP
接收器
之前,我需要通过map操作符传递事件。 出于性能原因,需要将事件批处理成n个消息组,理想情况下,批处理应该在几秒钟后刷新。如果事件计数满足我的最大批处理大小,那么使用带有清除触发器的
翻滚
处理时间
窗口
似乎是一个很好的解决方案。 问题是我需要将这个任务扩展到每秒处理100k个事件。为了获得有
窗口
的批处理,
Flink
希望我使用key by语句。我尝试过使用一些不同的键,但遇到了平衡问题,
浏览 9
提问于2021-11-12
得票数 0
1
回答
如何在
Flink
SQL
中
反序列化Avro枚举类型?
、
、
、
我有一个带有以下Avro IDL的
Kafka
主题
,并注册到Schema Registry。现在,当我使用STRING作为类型时,我
在
Flink
-1.13.1
中
得到了以下消息: *Caused by: java.io.IOException: Failed to deserialize(DeserializationSchema.java:82) org.apache.
flink
.streaming.connectors.
kafka
浏览 190
提问于2021-10-12
得票数 1
回答已采纳
2
回答
如何从
kafka
流到cassandra和递增计数器
、
、
、
我有apache访问日志文件,我想在cassandra表
中
存储每个页面的访问计数(总数/每天/每小时)。 我正在尝试使用
kafka
连接从日志文件流到
kafka
主题
。为了
在
Cassandra
中
增加指标计数器,我可以再次使用
Kafka
Connect吗?否则,这里应该使用哪些其他工具,例如
kafka
streams,spark,
flink
,
kafka
connect等?
浏览 0
提问于2017-10-11
得票数 0
1
回答
在
Apache
Flink
的表
Api
中
从
窗口
聚合
中
获取部分结果
、
、
我正在使用
Flink
TableApi和sql来计算每个
翻滚
窗口
中的不同用户,但结果仅在早于水印的时段内可见。有没有可能,
在
仍然可以改变的时间段内获得“部分”结果?我的代码(
在
Flink
SQL
中
运行) CREATE
TABLE
KafkaTable `user_id` BIGINT, `event_ts` TIMESTAMP(3),, window_end;
在
kafka
中
,
浏览 20
提问于2021-11-09
得票数 0
2
回答
Scala选项类型
在
apache表
api
中
不被识别
、
、
、
、
我正在构建一个
flink
应用
程序,它从
kafka
主题
读取数据,
应用
一些转换并写入Iceberg表。我从
kafka
主题
(
在
json
中
)读取数据,并使用circe将其解码为scala类,其中包含scala选项值。对datastream的所有转换都工作得很好。
table
.printSchema()co
浏览 17
提问于2022-02-20
得票数 1
回答已采纳
1
回答
找不到实现'org.apache.
flink
.
table
.factories.DeserializationFormatFactory‘的标识符“avro-confluent”的任何工厂
、
、
我有一个
Flink
作业,它在本地运行得很好,但当我尝试
在
集群上运行
flink
作业时失败。当尝试通过'connector‘= '
Kafka
’从
kafka
加载数据时发生错误。我使用
Flink
-
Table
API
和confluent-avro格式从
Kafka
读取数据。所以基本上我创建了一个从
kafka
主题
中读取数据的表: val inputTableSQL = s
浏览 299
提问于2021-10-22
得票数 0
回答已采纳
1
回答
Flink
-将pojo串行化到
Kafka
接收器
、
、
、
我的
Flink
代码的结构是:使用
kafka
获取数据(topic_1_in)、->反序列化消息、->地图、->、操作数据->、获取POJO ->序列化消息->、用
kafka
发送数据(topic_1_out我
在
Flink
网站上找到了以下例子: 但是,我仍然有点困惑如何将我的POJO转换成一个字符串来填充
Kafka
接收器
。这个类非常简单,所
浏览 3
提问于2021-01-10
得票数 0
回答已采纳
1
回答
带debezium-json格式的
Flink
1.11
、
在
Flink
1.11
中
,我尝试了debezium-format,下面的代码应该可以工作,对吧?我
在
试着跟着文档1走 "CREATE
TABLE
products (\n"name || products |1 row in set Exception in thread "main&qu
浏览 2
提问于2021-03-31
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券