腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Spring
Kafka
JDBC连接器兼容性
spring-boot
、
spring-kafka
、
apache-kafka-connect
、
confluent-platform
Kafka
JDBC connect兼容Spring-
Kafka
库吗? 我确实关注了,但仍然有一些困惑。
浏览 4
提问于2020-07-04
得票数 0
2
回答
在
Pyspark
中
使用
流
api
读取
Kafka
主题
-
问题
无法
写入
控制台
或
发送到
任何
其他
接收器
python
、
apache-spark
、
pyspark
、
apache-kafka
、
spark-streaming
我有点卡住了,我
在
pyspark
中
使用
spark streaming
API
阅读了一个
Kafka
主题
,然后试图将它推到一个水槽
中
,无论是
控制台
还是另一个
Kafka
主题
,我不确定我做错了什么,但整个过程有点卡住了我检查了有关于该
主题
的消息等。如果我
使用
基于java的消费者,我可以阅读并继续,但不知何故,对于
pyspark
无法
消费和输出消息。我也把代
浏览 136
提问于2021-07-02
得票数 1
1
回答
一个连接器的多个转换器
apache-kafka
、
apache-kafka-connect
卡夫卡连接器中有可能为单个
接收器
连接器提供多个转换器吗?例如,我们有一个用例,
在
该用例
中
,我们以格式A接收来自
主题
的数据,但希望将其流到两个位置,一个是格式A,另一个是格式B。
在
一个连接器
中
可以做到这一点吗?
浏览 1
提问于2017-10-12
得票数 0
回答已采纳
2
回答
如何将数据从Google PubSub
主题
流到
PySpark
( Google上)
python
、
pyspark
、
streaming
、
google-cloud-pubsub
我
在
Google PubSub中有一个
主题
的数据
流
。我可以看到
使用
简单Python代码的数据:def callback(message): print(datetime.now().strftime("%Y-%m-%d %H:%M:%S(
使用
订阅服务器subscriber_name)接收数据,并按照预期将其
写入
终端。我希望将来自
主题
的相同数据流到
PySpark
(RDD
或
dataframe)
中</e
浏览 1
提问于2018-09-17
得票数 1
1
回答
Pyspark
结构化
流
处理
apache-spark
、
pyspark
、
spark-structured-streaming
我正在尝试用spark做一个结构化的流媒体应用程序,主要思想是从
kafka
源
读取
,处理输入,写回另一个
主题
。我已经成功地让spark读写了
kafka
,但是我的
问题
出在处理部分。我尝试过foreach函数来捕获每一行并在写回
kafka
之前对其进行处理,但是它总是只做foreach部分,而不会写回
kafka
。但是,如果我从writestream
中
删除foreach部分,它将继续
写入
,但现在我丢失了处理。 如果有人能给我举一个例子,告诉我如
浏览 37
提问于2019-07-17
得票数 0
回答已采纳
1
回答
卡夫卡连接与溪流对决
apache-kafka
、
apache-kafka-streams
、
apache-kafka-connect
我试着理解Connect给你买了什么
流
不给你的东西。我们有一个应用程序的一部分,我们想要
使用
一个
主题
并写到mariadb。为什么这是个坏主意?JDBC连接器给你买了什么?
浏览 0
提问于2019-01-18
得票数 11
回答已采纳
1
回答
阅读单个
kafka
主题
并插入多个甲骨文表
apache-kafka
、
apache-kafka-connect
我
使用
kafka
使用
mongo源连接器将多个集合数据
发送到
一个
主题
中,并
使用
jbc
接收器
连接器将数据插入到不同的oracle表
中
。
在
mongo源连接器
中
,我们为所有记录附加相应的集合名称,以便根据集合名称
在
接收器
端处理信息。
使用
jdbc
接收器
连接器可以吗?我们是否可以通过节点. .js/ spring作为
使用
者应用程
浏览 2
提问于2022-04-04
得票数 0
1
回答
用火花
流
读取
脚本的输出输出
python
、
apache-spark
、
pyspark
、
spark-structured-streaming
我想用星火
流
api
“捕获”这些值,将它们存储
在
拼花文件
中
,并应用一些推理代码,这是HiveQL编写的。我不是Scala人:/因此,如果可能的话,我更愿意在
PySpark
中找到一个解决方案,但我对
任何
建议都很满意。我知道可以
读取
来自
Kafka
流
的数据
流
--例如,是否有类似的方法来
读取
发送到
stdout的数据
或
连续
写入
文件的数据? 提前感谢
浏览 0
提问于2019-08-07
得票数 3
回答已采纳
2
回答
我应该
使用
什么:
Kafka
流
或
Kafka
消费
api
或
Kafka
connect
apache-kafka
、
kafka-consumer-api
、
apache-kafka-streams
、
apache-kafka-connect
我想知道什么是对我最好的:卡夫卡
流
或
卡夫卡消费
api
或
卡夫卡连接? 我想从
主题
中
读取
数据,然后进行一些处理并
写入
数据库。因此,我已经编写了
使用
者,但我觉得我可以编写
Kafka
流
应用程序,并
使用
它的有状态处理器执行
任何
更改并将其
写入
数据库,这可以消除我的
使用
者代码,只需要编写db代码。我想插入我的记录的数据库是: HDFS -(插入原始JSON)
浏览 3
提问于2017-09-04
得票数 7
3
回答
避免多次
流
查询
apache-spark
、
spark-structured-streaming
我有一个结构化的
流
查询,它深入到
Kafka
。此查询具有复杂的聚合逻辑。 是否有一种方法可以将结构化
流
查询的结
浏览 1
提问于2018-02-13
得票数 5
回答已采纳
1
回答
Spring @StreamListener条件不推荐替代方案
java
、
spring-boot
、
apache-kafka-streams
、
spring-cloud-stream
、
spring-cloud-stream-binder-kafka
我们让多个应用程序
使用
者收听相同的
kafka
主题
,并且生产者
在
向
主题
发送消息时设置消息头,以便特定实例能够评估标头并处理消息。TestObj message) {}
在
SpringCloudStream3.0.0
中
,@StreamListener被废弃了,我
无法
在</
浏览 11
提问于2021-09-16
得票数 5
1
回答
Spark streaming
kafka
在
google云平台中的集成
问题
apache-spark
、
apache-kafka
、
google-cloud-platform
、
spark-streaming
我们
在
Google云平台上
使用
Bitnami
Kafka
0.8.2 + spark 1.5.2。我们的spark streaming作业(消费者)没有接收到
发送到
特定
主题
的所有消息。它会收到50条消息
中
的1条(已在作业
流
中
添加日志并已标识)。我们
在
kafka
日志
中
没有看到
任何
错误。
无法
从
kafka
层进一步调试。
控制台
使
浏览 1
提问于2015-12-24
得票数 0
3
回答
如何在星火
流
应用程序中
使用
Kafka
主题
?
apache-spark
、
pyspark
、
apache-kafka
、
spark-streaming
当我从
Kafka
主题
创建一个
流
并打印它的内容时 os.environ['
PYSPARK
_SUBMIT_ARGS'] = '--packages org.apache.spark:spark-streaming-
kafka
-0-8_2.11:2.0.2
pyspark
-shell' from
pyspark<
浏览 2
提问于2019-12-08
得票数 1
回答已采纳
2
回答
如何配置无源卡夫卡通道?
apache-kafka
、
channel
、
flume
如果配置
中
没有指定源,则会发生故障。据医生说: 有了水槽源和水槽--它为事件提供了一个可靠和高度可用的通道。
使用
Flume源代码和拦截器,但没有
接收器
--它允许将Flume事件
写入
Kafka
主题
,供
其他
应用程序
使用
。
使用
水槽
接收器
,但没有源,这是一种低延迟、容错的方式,可以将事件从
Kafka
发送到
Flume
接收器</em
浏览 0
提问于2019-04-10
得票数 0
1
回答
火花结构化
流
确认消息
scala
、
apache-spark
、
apache-kafka
、
spark-structured-streaming
我
使用
从卡夫卡
主题
(例如topic1)
中
读取
,并
使用
接收器
写入
另一个
主题
(
主题
1-结果)。我可以看到,
在
使用
Sink编写到另一个
主题
之后,这些消息并没有从Topic1
中
删除。// Subscribe to 1 topic .readStream .format("
kafka
&qu
浏览 2
提问于2020-02-11
得票数 0
回答已采纳
1
回答
“精确一次”是否只适用于
流
(topic1 -> app -> topic2)?
java
、
apache-kafka
、
apache-kafka-streams
它将这些序列化的消息
发送到
Kafka
主题
。App2监听该
主题
,将消息调整为不同的格式,并通过HTTP将这些经过调整的消息
发送到
各自的目的地。看起来,
Kafka
流
api
是针对单个应用程序的,该应用程序从
Kafka
主题
获取输入,进行处理,并将其输出到另一个
Kafka
主题
,这似乎不适用于我们对
Kafka
的
使用
。以下是的摘录 现在,
流
浏览 0
提问于2019-05-09
得票数 2
回答已采纳
2
回答
如何将消息从
kafka
接收器
路由到多个
主题
apache-kafka
、
spring-integration
、
spring-xd
、
kafka-producer-api
我有一个spring处理器模块,带有errorChannel和outputChannel的http出站网关.
使用
HTTP200的
任何
消息都会
发送到
outputChannel,其余消息都在failureChannel
中
。现在,http处理器模块用TopicX的
kafka
出站适配器连接到
Kafka
-Sink .TopicX只接收HTTP200个消息以供进一步处理。现在,我们需要将failureChannel
中
的消息路由到TopicY。 如何在卡夫卡水槽中发送多个卡夫卡<em
浏览 5
提问于2017-03-28
得票数 2
回答已采纳
1
回答
Kafka
中
的动态
流
拓扑
java
、
apache-kafka
、
apache-kafka-streams
使用
Kafka
流
DSL 创建
Kafka
流
时例如:当我们开始的时候,我们定义了一个拓扑来
读取
一个
主题
(来源)和一个目标
主题
(Sink)。但是,
在
进行配置更改时,我们现在需要从两个不同的
主题
(如果需要的话是两个源)进行
读取
,并将其
写入
单个目标
主题
。 从我们现在构建的内容
浏览 0
提问于2019-06-18
得票数 1
回答已采纳
2
回答
卡夫卡-> DataStream -> MongoDB
mongodb
、
hadoop
、
apache-kafka
、
apache-flink
我想设置Flink,这样它就可以将数据
流
从Apache转换并重定向到MongoDB。出于测试目的,我构建在flink
流
-Connectors.
kafka
示例()之上。卡夫卡
流
是正确红色的链接,我可以映射他们等,但
问题
发生时,我想保存每一个接收和转换的信息到MongoDB。我发现的关于MongoDB集成的唯一例子是来自github的flink-mongodb测试。不幸的是,它
使用
的是静态数据源(数据库),而不是数据
流
。 我认为应该有一些DataStream.addSink
浏览 3
提问于2016-02-02
得票数 11
回答已采纳
1
回答
Spark流式数据以更新SQL Server (事务)
sql-server
、
spark-streaming
目前我有一些
pyspark
代码,它是从
kafka
主题
读取
数据(readStream),我计划
使用
事务更新SQL Server表。
流
数据将具有所有三个插入、更新、删除事务。
浏览 2
提问于2020-01-29
得票数 0
点击加载更多
相关
资讯
深入理解Kafka Connect:转换器和序列化
Spark Streaming 2.2.0 Input DStreams和Receivers
Flink 支持哪些数据源和数据接收器?
“事件驱动架构”Apache Kafka中的事务
“消息中间件”Apache Kafka中的事务
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券