腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
卡夫卡
MySQL
作为消费者
、
我有卡夫卡作为服务器生态系统中的消息代理,我能以某种方式使
MySQL
成为消费者吗? 我需要直接用卡夫卡的
数据
库来写
数据
。
浏览 7
提问于2015-07-07
得票数 1
回答已采纳
1
回答
Kafka
在传统的3层应用程序中的位置
我最近开始学习apache
kafka
。在得到一些初步的想法后,我对
kafka
在应用程序架构中的位置感到困惑。 我的意思是,我们如何将它引入到以前只有三层的简单应用程序中。前端(安卓应用),后端(Node.js),
MySQL
。用户可以从应用程序创建帖子,应用程序
将
调用node.js上的端点,并将帖子存储在
数据
库中。在这个简单,直截了当的架构中,
kafka
还会添加什么额外的东西?它将如何集成?
浏览 2
提问于2021-10-27
得票数 0
1
回答
从
mysql
中提取每日
数据
更改并将其部署到timeseries DB
、
、
、
、
在
MySQL
中,使用binlog,我们可以提取
数据
更改。但我只需要在那个时间/一天内所做的最新更改,并需要将这些
数据
输入到timeseries DB (计划使用druid) 在读取binlog时,有没有什么机制可以避免重复并保留最新的更改?我的意图是每天在timeseries
数据
库中备份整个
MySQL
数据
库。它有助于通过参考当天存在的实际
数据
来调试我的应用程序的过去日期
浏览 4
提问于2021-10-28
得票数 0
1
回答
使用
将
模式和
数据
更改从
MySQL
流到
MySQL
、
如何使用
Kafka
连接源连接器
将
模式和
数据
更改以及某些类型的转换流到另一个
MySQL
实例。如果我使用
Kafka
的Python (Confluent_
kafka
)在加载到目标DB之前使用和转换消息,是否也有一种传播模式更改的方法。
浏览 3
提问于2022-06-01
得票数 0
2
回答
如何定期向hadoop提供
数据
、
我的公司每天产生大约600万条记录,我看到hadoop是处理大量
数据
的一个很好的解决方案。我发现了如何从
mysql
加载
数据
,但它正在导出完整的
数据
库,有没有办法保持我的
mysql
DB和Hadoop之间的
数据
同步?
浏览 2
提问于2020-03-07
得票数 1
1
回答
RDBMS
数据
的
Kafka
+Spark解决方案
我当前的项目是以MainFrames为
数据
库,以DB2为
数据
库的。我们有70个
数据
库,每个
数据
库都有近60个表。我们的架构师提出了一个使用
Kafka
与星火流一起处理
数据
的方案。
Kafka
在读取
数据
的RDBMS表方面有多好?我们是使用
Kafka
直接从表中读取
数据
,还是有其他方法
将
RDBMS中的
数据
导入
Kafka
?如果有更好的解决方案,你的建议会有很大帮助。
浏览 4
提问于2017-06-25
得票数 0
回答已采纳
1
回答
使用spark streaming和spark redshift-connector
将
数据
从
kafka
复制到红移
、
、
我正在尝试设置一条从
mysql
binlogs到redshift的
数据
管道。我正在从
Mysql
binlogs(使用一个工具- cannedbeer,来自mypipe的fork )向
kafka
写入
数据
,然后使用spark streaming
将
这些消息
写入
到使用spark redshift我面临的问题是,由于Dstream .Can的foreachRDD方法(
写入
Redshift的副作用)中的作业失败,相同的消息被多次
写入</e
浏览 1
提问于2015-11-12
得票数 1
1
回答
如何以json格式
将
数据
从rds推送到
kafka
队列
、
、
我使用
kafka
主题从
mysql
数据
库接收消息,我需要编写python代码
将
json格式的
数据
从
mysql
推送到
kafka
,topic.My的要求是以json格式获得输出,而不是用原始字符串。下面是用json格式
将
mysql
表
数据
转储到
kafka
主题的python代码。代码: connection =
mysql
.connector.connect(host='xyz.u
浏览 7
提问于2021-05-02
得票数 0
1
回答
如何在高流量应用程序中将查询从
MySQL
迁移到Redis?
、
多年来,我一直在开发一个高流量的广告服务平台,使用前面有一个HAProxy的主主玛丽亚
数据
库集群来平衡关系
数据
查询(读取查询会转到所有服务器,但只写到一个服务器上,以防止服务器不同步)。所谓关系
数据
,我指的是活动设置、用户详细信息、支付等。我还使用Redis缓存一些不太动态的
MySQL
信息,但我相信有很多机会可以更好地利用它,因为一旦流量增加,我经常遇到以下瓶颈: MySQLdeadlocks的连接太多(可能是因为主服务器超载时
写入
开始在多台服务器上我的目标是
将
更多的写操作从
My
浏览 1
提问于2020-08-28
得票数 0
1
回答
为什么
kafka
将
空
数据
写入
数据
库?
、
、
、
我的项目从
Kafka
的主题中获取
数据
,并将
数据
写入
数据
库(
mysql
)。如果我读到卡夫卡的数百条信息,大多数信息都可以正确地
写入
数据
库。但是,可以使用空值
将
一些消息
写入
数据
库(
数据
库可以拥有该记录,但所有列中的值都为空)。我在这里有遗漏什么吗?
浏览 2
提问于2022-05-12
得票数 -1
2
回答
Apache
Kafka
多组
、
我读到了Apache
Kafka
,我偶然发现了它的消费者群体的概念。我不理解的是它的用例。来自不同组的两个不同的消费者可以阅读正在发布的相同消息。为什么要由两个不同的消费者处理相同的消息?
浏览 0
提问于2016-08-27
得票数 0
1
回答
如何
将
spark
数据
帧中的多列
写入
kafka
队列
、
、
、
我知道我们可以集成spark和
kafka
,并将
数据
帧以key和value的格式
写入
kafka
队列,如下所示 df -
数据
帧 df.withColumnRenamed("Column_1", "key") .write() .option("
kafka
浏览 15
提问于2019-05-28
得票数 0
1
回答
为什么卡夫卡连接作品?
、
从我的阅读和观察来看,我理解
Kafka
Connect允许您使用Source连接器
将
数据
发送到
Kafka
,使用Sink连接器从
Kafka
读取
数据
。例如,您可以使用PostgreSQL源连接器向
Kafka
写入
,然后使用Elasticsearch和Neo4J Sink连接器并行读取卡夫卡的
数据
。 我的问题是:这种抽象是如何工作的?为了从
Kafka
读取
数据
并将其
写入
任何地方,您必须期待一
浏览 2
提问于2021-02-05
得票数 0
1
回答
如何在读写的同时从
kafka
broker中移动
数据
kafka
1是旧的,拥有所有的
数据
,它的控制器
kafka
1 2,3,4是新的,没有
数据
我可以这么做吗?
将
dns
kafka
1更改为
kafka
4 (这是集群-
数据
写入
正确吗?)启动
kafka
-重新分配-Partions.sh,
将
数据
从
kafka
1移动到
kafk
浏览 4
提问于2017-11-08
得票数 0
回答已采纳
1
回答
如何轻松地
将
流结果保存到远程
数据
库中?
、
在本例中,结果被
写入
主题。相反,如何通过REST或其他任何方法轻松、快速地
将
结果保存到远程
数据
库中。汇合平台上有什么结构吗?代码示例: //而不是代码,发送远程
数据
库 wordCounts.toStream().to("streams-wordcount-output",Produced.with(stringSerde,longSerde
浏览 0
提问于2019-03-27
得票数 1
回答已采纳
1
回答
Spark -在
写入
之前收集
kafka
到驱动程序的偏移量
、
、
、
我有一个很大的
kafka
主题,我想从这个主题开始写批量偏移量。我目前正在使用以下方法。tOffsets = (o.topic, o.partition, o.untilOffset) }然而,这会导致每个
kafka
分区对任何给定的
数据
存储(
MySQL
、ZK、Hbase等)进行一次
写入
,这可能会在尝试对大量分区进行小时间批处理时产生不希望看到的结果。我找不到一种方法来收集驱动程序的offsetRanges,这将是更
浏览 0
提问于2018-01-31
得票数 0
1
回答
从
mysql
到mongo
数据
库的
数据
调度问题
、
、
、
、
我们正在开发一个SAAS系统,在这个系统中,我们最初使用
MySQL
作为DB,但随着
数据
的增长,我们的
数据
列表变慢了,所以为了解决这个问题,我们已经使用了Mongo DB,我们已经在其中存储了准备好的JSON,我们需要显示一段时间(与
MySQL
的所有连接),它工作得很好 我们用java编写了一个调度程序,它每2分钟运行一次,并将修改后的记录从
MySQL
更新到mongo。最初,它工作得很好,但随着时间的推移,
数据
和它的速率增加,它失败了很多次,所以我们决定寻找任何可以从
MySQL</
浏览 14
提问于2020-02-04
得票数 0
1
回答
将
KTable
数据
放入外部
数据
库
、
、
我有一个场景,我需要将
数据
放在KTable中,并将KTable中的
数据
存储到Oracle11g DB中。做这件事的可能方法是什么?
浏览 4
提问于2017-10-09
得票数 0
2
回答
将
Kafka
Connect JDBC源连接器输出转换为自定义格式
、
、
我已经实现了一个
Kafka
Connect JDBC Source连接器,它连接到Oracle-Database,并将
数据
写入
Kafka
-Topic。目前,我已经在设置value.converter.schemas.enable=false的情况下设置了选项value.converter=org.apache.
kafka
.connect.json.JsonConverter该选项允许
将
JSON
数据
写入
Kafka
主题(顺便说一句,它工作
浏览 3
提问于2021-02-18
得票数 0
0
回答
使用
Kafka
Streams进行自定义转换
、
、
、
、
我一直在使用Apache
Kafka
实现ETL
数据
管道。我已经使用
Kafka
Connect进行提取和加载。 Connect
将
读取源
数据
,并以JSON的形式
写入
Kafka
topic的实际
数据
。在转换阶段,我想从
Kafka
主题读取JSON
数据
,然后需要转换为基于一些自定义业务逻辑的SQL查询,然后需要
写入
输出
Kafka
主题。到目前为止,我已经编写了一个生产者-消费者应用程序,它从主
浏览 3
提问于2017-12-15
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python写入数据到MySQL
Python爬虫数据写入mySQL案例
解决写入中文数据到 MySql 时变成?
《从0到1学习Flink》——Flink 写入数据到 Kafka
如何在Kerberos环境使用Flume采集Kafka数据并写入HDFS
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券