我正在运行一些java 8 Kafka应用程序,其中一些是Kafka流,其他的是简单的生产者/消费者。 对于它们中的每一个,都没有功能问题,它们在大多数时间都运行得很好。 但是,对于它们中的每一个,我都会得到SaslAuthenticationException的临时出现。由于它们大约每隔几周发生一次,我不确定如何复制/推断根本原因: 错误: Failed to create channel due to
org.apache.kafka.common.errors.SaslAuthenticationException: Failed to configure SaslClientAut
在kafka文档中,它说主体是kafka/hostname@EXAMPLE.COM,所以sasl.kerberos.service.name应该是kafka,但我非常困惑kafka代理配置说: 代表 "The Kerberos principal name that Kafka runs as. This can be defined either in Kafka's JAAS config or in Kafka's config." 为什么我们需要设置这个配置: ,它是如何工作的?为什么kafka运行的Kerberos主体名称是“ “非” “
我试图连接到卡夫卡服务器。身份验证基于GSSAPI。
/opt/app-root/src/server/node_modules/node-rdkafka/lib/error.js:411
return new LibrdKafkaError(e);
^
Error: broker transport failure
at Function.createLibrdkafkaError (/opt/app-root/src/server/node_modules/node-rdkafka/lib/error.js:411:10)
at /opt/app-ro
我似乎不能让我的Java Kafka客户端工作。症状: “发现的协调器”出现在日志中,然后不到一秒后,“正在标记协调器...已死”。在此之后不再显示输出。 调试代码显示org.apache.kafka.clients.consumer.KafkaConsumer.poll()永远不会返回。代码卡在ConsumerNetworkClient类的do-while循环中: public boolean awaitMetadataUpdate(long timeout) {
long startMs = this.time.milliseconds();
int version =
我正在为卡夫卡(kerberos)开发一个(Kerberos)的消费者类。我按照的建议,根据kerberos设置进行了必要的更改,最后出现了以下错误。我可以在本地设置同样的keytab/jks文件的Kafka集群安装程序。
Failed to start bean 'org.springframework.kafka.config.internalKafkaListenerEndpointRegistry'; nested exception is org.apache.kafka.common.KafkaException: Failed to construct kafka
我正在做一个siddhi应用程序,在那里我必须连接到融合卡夫卡服务器。为此,我必须在optional.configuration中正确地传递用户名/密码。我在@source中传递它(如下图所示),但是得到了错误Could not find a 'KafkaClient' entry in the JAAS configuration. System property 'java.security.auth.login.config' is not set
代码:
@source(type='kafka',
topic.list=&
我在发送序列化的XML到我的Kafka主题时遇到了问题。每当我运行我的代码,我没有得到任何异常或错误消息,但我仍然看不到我在Kafka主题中的任何消息。
我的Kafka-Producer设置是:
def WartungsdbKafkaConnector(args: Array[String]): Unit = {
val xmlFile = args(0)
val record = getRecord(xmlFile)
val kafkaProducer = getKafkaProducer
kafkaProducer.send(record)
}
pro
我使用Java使用者来使用来自主题(KafkaVersion0.10.0.1)的消息,如果我在docker容器之外运行这些消息,它可以正常工作。但是,当我在docker容器中执行它们时,这些组将被标记为死消息。
Marking the coordinator local.kafka.com:9092 (id: 2147483647 rack: null) dead for group my-group
我的使用者配置如下:
metadata.max.age.ms = 300000
partition.assignment.strategy =[org.apache.kafka.clients.
早上好。首先,我已经创建了一个包含2个物理主机和一个覆盖网络的docker群。在同一主机中,我已经创建了2个容器(postgres和ambari服务器)和一个带有ambari代理的容器,我将在其中安装kafka,zookeeper,spark,...从安巴里来。范围是在几个主机上安装几个容器,但我首先尝试这样做,因为我不能让它工作。
事实上,一旦使用Ambari进行部署,我就会更改kafka配置,将advertised.host.name添加到物理主机的ip中,并将advertised.port更改为9092,以将其绑定到物理主机的9092端口。
在尝试时,我总是收到以下错误:
WARN Er
我正在尝试对KafkaConsumer使用kerberos身份验证。 为此,我添加了以下属性。 props.put("security.protocol", "SASL_PLAINTEXT"); // Setting this means we try to look in jaas.conf
props.put("sasl.kerberos.service.name", "kafka"); 但是,我收到一个错误消息: java.lang.IllegalArgumentException: Could not f