腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(30)
视频
沙龙
1
回答
如何将
带有
唯一
标识符
(
eventID
/
UUID
/
filename
)
的
消息
密钥
从
Nifi
发送到
Kafka
主题
,
请参阅
kafka
日志
、
、
我正在尝试发送一条
消息
(json文件)到
Kafka
主题
(发布),并使用文件名或
uuid
作为
kafka
密钥
,这样我就可以在
日志
中跟踪它。
消息
在稍后发送和使用,但我无法跟踪
日志
中
的
键,因此我可以跟踪和识别
消息
。目标是为每条
消息
提供
唯一
的
标识符
(对每个事件使用不同
的
文件名/
uuid
) 我尝
浏览 7
提问于2019-05-21
得票数 0
4
回答
什么是真正
的
“卡夫卡分区是不变
的
”?
、
、
在我读过
的
所有
Kafka
教程中,他们都提到"
Kafka
分区是不可变
的
“。但是,我也从这个站点上读到,
Kafka
会不时地删除分区中
的
旧
消息
(取决于您在log- that命令中设置
的
保留时间)。您可以从下面的屏幕截图中看到,在删除分区中
的
重复键之后,分区中
的
数据明显发生了变化:所以我
的
问题是,说"
Kafka
分区是不变
的
“到底是什么意思?
浏览 8
提问于2019-10-03
得票数 1
回答已采纳
1
回答
用
Kafka
连接Elasticsearch连接器
的
消息
顺序
、
、
、
我们在执行使用
Kafka
连接器将来自
Kafka
主题
的
消息
发送到
Elasticsearch
的
顺序时遇到了问题。在
主题
中,
消息
的
顺序是正确
的
,有正确
的
偏移,但是如果有两条具有相同ID
的
消息
被快速地连续创建,它们就会间歇地以错误
的
顺序
发送到
Elasticsearch。在
Kafka
系统
的</e
浏览 1
提问于2019-01-17
得票数 1
回答已采纳
3
回答
向
Kafka
发送
消息
时是否需要key?
、
、
request.getRequestTopicName(), SerializationUtils.serialize(message)); 目前,我发送
的
消息
没有任何
密钥
作为键控
消息
的
一部分我是否需要将
密钥
作为
消息
的
一部分发送?作为
消息
的
一部分,这样做是好
的
吗?
浏览 16
提问于2015-04-08
得票数 143
回答已采纳
3
回答
当应用程序中存在一个生产者和多个使用者时,apache
kafka
如何处理一致性
、
、
、
、
假设您有一个由一个生产者(P1)和许多消费者(C1-C2-C3)组成
的
体系结构。当一个小型java客户机按顺序生成
消息
为M1、M2、M3和另一个java客户机(3倍扩展到另一台机器)时,将收到一条
消息
,然后在计算完后将
消息
写入数据库表。如果消费者应用程序中
的
计算周期不同,而最初使用
的
消息
可能会以最后一个顺序写入同一表,则可能会导致数据不一致。 也许我遗漏了一些文档中
的
东西,但我想知道
kafka
在这种情况下如何处理一致性问题。
浏览 1
提问于2018-03-04
得票数 1
回答已采纳
2
回答
从
Apache
nifi
设置
Kafka
主题
的
消息
键
、
我在Apache中建立了一个简单
的
管道,
从
twitter中提取一些tweet,并将它们转储到
kafka
主题
中。Tweet被丢弃到
主题
中,没有错误,但是我不知道为什么
主题
消息
的
键没有设置。我使用了一个"EvaluateJSONPath“处理器来设置
从
通过"GetTwitter”处理器提取
的
JSON中提取
的
流文件
的
属性。如果我暂停并看到进入"publish
浏览 9
提问于2021-03-27
得票数 0
1
回答
关于卡夫卡紧凑
主题
的
缺失信息
我有一个被压缩
的
主题
:Topic:myTopic号码是对
的
,我原以为他们会在那里,但不知什么原因,他们走了。所涉专题是以紧凑
的
方式
浏览 0
提问于2019-05-02
得票数 0
回答已采纳
3
回答
如何使用
Kafka
流DSL函数处理重复
消息
我
的
要求是使用
kafka
流DSL跳过或避免
从
输入
主题
接收
的
重复
消息
(具有相同
的
密钥
)。源系统->输入
主题
->
Kafka
流->输出
主题
目前,我正在使用flatMap来生成多个有效负载
密钥
,但是flatMap是无状态
的
,因此在接收到输
浏览 1
提问于2019-04-23
得票数 1
回答已采纳
1
回答
随机分区器不会在
Kafka
主题
分区之间分发
消息
。
、
、
我在
Kafka
中创建了一个
带有
9个分区
的
主题
,并将其命名为“test”,并在C# (.NET Core)中使用Confluent.
Kafka
客户端库将两个简单
的
应用程序组合在一起:一个生产者和一个消费者我认为在这里粘贴消费者代码没有多大意义,这是一个琐碎
的
‘获取
消息
,在屏幕上打印它’
的
应用程序,但是它也会打印
消息
来自
的
分区
的
数量。Key属性,则将所有
消息
发
浏览 1
提问于2019-03-27
得票数 2
回答已采纳
3
回答
带分区
的
Kafka
主题
、
简单
的
问题:1、2、3、..........20当生产者产生这些
消息
时:谢谢
浏览 8
提问于2018-09-21
得票数 1
1
回答
在使用
kafka
和spark streaming创建直播流之前,获取
主题
的
分区数量?
、
、
、
String getDeserializerClassName(); } 这很好用,但现在我想更改逻辑,让消费者
从
主题
的
特定分区消费,而不是让
Kafka
决定
从
哪个分区消费。我使用
的
算法与默认
的
kafka
分区程序使用
的
算法相同,该算法根据
密钥
DefaultPartitioner.toPositive(Utils.murmur2(k
浏览 34
提问于2020-03-17
得票数 0
回答已采纳
9
回答
如何快速入门
Kafka
消息
队列?
、
最近经常听到这个名词,但是不知道如何入门,我看到腾讯云也有相关
的
产品Ckafka产品,所以来问问~
浏览 5092
提问于2018-09-14
8
回答
如何在Windows上安装
Kafka
?
、
我试图在Windows上安装
消息
队列,以测试
的
用途(而不是为了生产)。这是一篇好文章,但不幸
的
是,它已经过时了。
浏览 10
提问于2014-04-16
得票数 42
回答已采纳
1
回答
通过()方法使用
Kafka
KStream -理解将实例分配给分区
、
我很难使用KStream through()方法来确保
消息
被分发到正确
的
分区。好赋值案例 <
浏览 0
提问于2019-02-22
得票数 0
4
回答
apache用户避免重复
消息
的
有效策略
、
、
我
的
用例是,我有两个或多个使用者进程在不同
的
机器上运行。我运行了几个测试,在
kafka
服务器上发布了10,000条
消息
。然后,在处理这些
消息
时,我杀死了其中一个使用者进程并重新启动它。使用者正在将处理过
的
消息
写入文件中。因此,在消费结束后,文件显示了超过10k条
消息
。所以有些信息被复制了。 在使用者进程中,我禁用了自动提交。消费者手动提交抵消批处理。因此,对于例如,如果100条
消息
被写入文件,消费者提交抵消。当单个使用者进程运行并崩溃
浏览 0
提问于2015-04-15
得票数 68
回答已采纳
6
回答
kafka
集群中
主题
的
分区和副本有什么区别
、
kafka
集群中topic
的
分区和副本有什么区别。我
的
意思是两者都将
消息
的
副本存储在一个
主题
中。那么真正
的
区别是什么呢?
浏览 0
提问于2014-11-26
得票数 34
3
回答
为电子商务网站设计实时数据管道
、
我读过文章和文件,但我不知道卡夫卡是如何工作
的
。我脑海中有很多问题:(我想创建一个
Kafka
集群,并开发一些代码来准备数据工程面试。但是我被困住了。任何帮助都将不胜感激。当用户单击广告电子邮件中
的
链接时,浏览器将打开电子商务网站。 在此背景下,网站开发人员应向
Kafka
集群发送一个点击流事件,并包含相关参数(如客户id、广告id、source_medium等)。当用户加载网站时,后端开发人员如何向
Kafka
集群发送
消息
?开发人员应该发送post请求还是get请求?他们是其他
的</
浏览 0
提问于2019-08-14
得票数 1
2
回答
透明流及批处理
、
、
、
这些数据大多是
带有
纳秒时间戳
的
样本流,其中样本可以是从一个ADC值到一个这样
的
数组,通过深度结构化数据(多达数百个条目,
从
1位布尔到64位双精度浮动)到原始高清视频帧甚至字符串文本
消息
。在这篇奋进号中,我试图了解现有的分析框架,如星火、Flink、Storm等(可能是由
Kafka
、Pulsar、.等
消息
队列支持
的
)。可以支持一个场景,其中 数据正在流/流到平台/框架中,并附加了一个
标识符
,比如URL或ID之类<
浏览 0
提问于2019-03-13
得票数 0
回答已采纳
2
回答
kafka
__consumer_offsets
主题
日志
快速增长,减少磁盘空间
我发现__consumer_offsets
主题
日志
的
大小正在迅速增长,经过研究,进一步发现了容量最大
的
主题
。我更改了这些
主题
的
保留策略,以停止增长速度,但希望增加磁盘空间并删除__consumer_offsets
主题
的
所有旧
日志
。 但这将导致所有其他
主题
和使用者/生产者被破坏或丢失有价值
的
元数据。我正在查看配置
的
参数,其中包括清理策略和压缩,但不确定如何
浏览 4
提问于2020-05-22
得票数 2
回答已采纳
16
回答
什么时候对卡夫卡使用RabbitMQ?
、
、
我被要求评估RabbitMQ而不是
Kafka
,但我发现很难找到一个
消息
队列比
Kafka
更合适
的
情况。有人知道
消息
队列在吞吐量、持久性、延迟或易用性方面更适合
的
用例吗?
浏览 18
提问于2017-02-10
得票数 509
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
公共安全领域 Kafka 应用实践
Netflix的大规模Kafka实践
Kafka详细的设计和生态系统
5 分钟了解 kafka 核心概念
深入理解Kafka Connect:转换器和序列化
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券