将消费者作为同一个消费者组的一部分意味着提供来自主题分区的消息分布在组成员之间的“竞争消费者”模式。: Previously tracked partitions [cpq.cluster-1] been revoked by Kafka because of consumer rebalance.Fundamentally different stream should use different group id
at org.apache.spark.streaming</
我在Scala中使用Spark在Kafka消费者应用程序中消费和处理消息。有时候,处理Kafka消息队列中的消息会比平时多花一点时间。此时,我需要消费最新的消息,忽略生产者已经发布但尚未消费的早期消息。properties = readProperties()
val streamConf = new SparkConf().setMaster("local[*]").se