腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2607)
视频
沙龙
1
回答
Apache
Flink
依次
写入
多个
接收器
我有一个CsvTableSource来读取CSV文件并将数据
写入
S3,然后我想将文件从S3加载到JDBC
接收器
。如何使JDBC
接收器
仅在S3
接收器
成功完成后执行。
浏览 10
提问于2019-09-28
得票数 0
1
回答
将协议缓冲区数据搜索到avro -
Apache
Flink
、
是否可以使用
Apache
Flink
接收器
将协议缓冲区数据序列化到Avro并
写入
文件?
浏览 16
提问于2020-05-02
得票数 1
1
回答
每X分钟发出一次会话窗口的结果
我已经实现了一个
Flink
处理器,它将事件聚合到会话中,然后将它们
写入
接收器
。现在我想扩展它,这样我就可以获得每五分钟并发会话的数量。SessionId": "UniqueUUID", "EventType": "EventTypeA",} 并且单个会话通常包含
多个
不同然后,我在
Flink
中执行以下操作,将事件聚合到会
浏览 12
提问于2020-11-06
得票数 0
回答已采纳
1
回答
Flink
Hbase连接器:在Hbase
接收器
表中
写入
数据:无法为
写入
表创建
接收器
、
、
、
、
我想在hbase
接收器
表中
写入
数据,我有兼容
flink
版本1.14.4的Hbase版本2.2.0,我将
接收器
hbase表定义如下: CREATE TABLEtable_api_table但我错了: org.
apache
.
flink
浏览 24
提问于2022-10-24
得票数 -1
回答已采纳
2
回答
对检查点做出反应的
Flink
StatefulFunction?
我的有状态函数是将数据
写入
数据库,但它是不确定的,因此从检查点恢复可能会导致数据库包含不一致的数据。我的想法是在
Flink
的持久化状态下“缓冲”数据,只有在检查点完成后才将数据
写入
数据库。
浏览 61
提问于2020-08-24
得票数 0
回答已采纳
1
回答
如何在
Apache
Flink
中消费来自Kafka的消息?
、
我知道每次都会消耗一批数据来减少网络调用,但是消耗的速度只取决于源运营商还是Sink的确认也很重要?在这种情况下如何处理突发?
浏览 13
提问于2019-09-06
得票数 0
1
回答
不含汇的Kafka流
、
、
我目前正在规划一个应用程序的架构,该应用程序从Kafka主题读取数据,并在经过一些转换后将数据转换为RabbitMq。我是Kafka Streams的新手,它们看起来很适合我的任务。但问题是,Kafka服务器托管在另一个供应商的地方,所以我甚至不能安装Cafka Connector to RabbitMq Sink插件。
浏览 0
提问于2021-06-18
得票数 0
1
回答
如何在
写入
apache
中的自定义
接收器
之前缓冲记录
、
、
我对
Flink
相当陌生,在技术用例方面需要一些帮助。我有一个在GKE上运行的
flink
应用程序,并使用自定义
接收器
将记录(从Kafka源)
写入
BigQuery。我可以将记录
写入
BigQuery,而不会出现任何问题。目前,记录被一个接一个地
写入
接收器
中,因此每个kafka消息都会得到自己对BigQuery的插入api调用,这并不理想,因为我们需要执行批量插入,并且单独插入每个记录将非常昂贵。新要求: 在将记录
写入
BigQuery之前,理想情
浏览 5
提问于2022-10-18
得票数 2
回答已采纳
2
回答
在Scala中找不到RestHighLevelClient
、
、
、
我的目标是从
Flink
获得一个流,并将其插入到ElasticSearch中,感谢您的帮助。
浏览 0
提问于2020-02-05
得票数 0
1
回答
一个DataSource的两个输出
我正在尝试处理日志文件,并将几乎相似的结果保存到两个不同的位置,而不需要重新处理整个日志文件。 ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(); System.out.println(
浏览 5
提问于2016-09-29
得票数 1
1
回答
将事件从
Apache
Flink
传输到
Apache
性能很差
、
我集成了两个工具
Apache
NiFi和
Apache
Flink
。NiFi获取事件并将它们发送到
Flink
,之后
Flink
将这些事件经过一些处理返回给相同的NiFi。我在
Flink
中构建了Nifi的源代码和
接收器
。整个过程可以工作,但是
接收器
的性能非常差(大约每秒10个事件)。 如果我移除
接收器
(仅打印输出),处理速度会快得多。在每个事件
接收器
之后,等待关闭事务,但我不确定,也不知道如何更改它,例如在一个事务中发送数
浏览 3
提问于2018-07-24
得票数 1
1
回答
flink
检查点如何帮助故障恢复
、
以下是我的假设:
Flink
从kafka消耗一些固定数量的事件(一次从
多个
分区获得
多个
偏移量),并等待,直到它到达
接收器
,然后是检查点。在成功的情况下,它提交kafka分区,偏移它读取,并维护一些与它正在
写入
的hdfs文件相关的状态。在kafka将事件交给其他运营商之后,进行了
多个
转换,而kafka消费者则处于闲置状态,直到它得到它发送的事件的成功确认。因此,我们可以说,当
接收器
将数据
写入
hdfs时,所有之前的操作符都处于空闲状态。在失败的情况下,<e
浏览 0
提问于2020-03-12
得票数 0
1
回答
有人能提供Kafka Sink Connector示例Java吗?
老实说,我在一个非常主要的水平使用
Apache
Flink
,我正在寻找
Apache
Flink
接收器
连接器,它将发送我的消息到Kafka主题。 期待您的快速帮助。
浏览 0
提问于2017-06-12
得票数 0
1
回答
使用线程在使用者流中循环运行
Flink
使用者
、
、
我想让
flink
使用者流中的每条消息产生多条消息,每条消息通过一个单独的线程生成到kafka中的某些主题,使用
flink
kafka producer.Im用Scala编写程序,但是使用Java的答案就可以了new Thread {
flink
_producer(str) } } val stream
浏览 0
提问于2018-01-30
得票数 0
回答已采纳
1
回答
Flink
精确一次-
接收器
处的检查点和屏障确认
、
、
我有一个
Flink
作业,它的
接收器
是将数据
写入
MongoDB。
接收器
是RichSinkFunction的实现。
接收器
在什么时候确认检查点屏障,在调用函数开始时还是在调用完成时?意味着它在确认障碍之前等待持久化(保存在MongoDB中)响应?如果提交
浏览 3
提问于2018-05-31
得票数 1
1
回答
aws动态数据分析应用程序(
flink
)更改原来位于
flink
-
flink
. data的属性
、
、
作为我的
flink
应用程序的运行时,我通过AWS ()使用托管
flink
"com.esotericsoftware.kryo.KryoException: Error constructing instance of class: org.
apache
.avro.Schema$LockableArrayList",
浏览 2
提问于2020-06-03
得票数 1
回答已采纳
1
回答
Flink
表API流S3
接收器
引发SerializedThrowable异常
、
、
、
我试图使用
flink
1.15.1编写一个简单的表API S3流
接收器
(csv格式),并面临以下例外:at org.
apache
.
flink
.fs.s3-fs-hadoop-1.15.1.jar:1.15.
浏览 20
提问于2022-07-11
得票数 0
回答已采纳
1
回答
如何根据数据将一个数据流输出到不同的输出?
、
、
在
Apache
中,我有一个元组流。让我们假设一个非常简单的Tuple1<String>。我希望根据元组内部的值将该元组
写入
特定的输出位置。我希望有以下文件结构: 在文档中,我只找到了向我事先知道的位置(例如stream.writeCsv("/output/somewhere"))
写入
的可能性这能用
Flink
API来完成吗?如果是的话,怎么做?如果没有,是否有第三方库可以这
浏览 0
提问于2015-10-29
得票数 19
回答已采纳
2
回答
关于
flink
流
接收器
到hdfs
、
、
我正在编写一个
flink
代码,在该代码中,我从本地系统读取一个文件并使用"writeUsingOutputFormat“将其
写入
数据库。你能帮我一下吗?
浏览 1
提问于2019-01-07
得票数 1
回答已采纳
1
回答
使用Java OutputFormat发出Scala元组
、
、
、
因此,该类的定义如下:现在,我想要
写入
ArangoDB的
Flink
程序是用Scala编写的。ArangoOutputFormat[(Long, Long)]()但是,在编译时,我会得到以下错误: 错误:(47,11)类型参数(长、长)不符合类ArangoOutputFormat的类型参数界限<:org.
apache
.
flink</e
浏览 3
提问于2016-09-09
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Flink 支持哪些数据源和数据接收器?
快速起步Apache Flink,这远比我们看到的更强大
官宣:Apache Flink 1.14.0 发布
如何使用flink-connector-postgres-cdc将Kafka写数据到PostgreSQL数据库动态表中
flink用例
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券