我使用过spring cloud data flow、rabbitmq和kafka,但我想知道是否可以使用google pub/sub安装scdf。
我不想创建一个流(新的应用程序,spring云流),它的源或宿都是gcp,我想让google pub/sub over spring cloud数据流服务器作为一个中间消息传递代理。
有什么建议吗?
我试图使用spring云流向Kafka发送消息,但是send方法会产生以下错误:
Caused by: java.lang.IllegalArgumentException: Magic v1 does not support record headers
at org.apache.kafka.common.record.MemoryRecordsBuilder.appendWithOffset(MemoryRecordsBuilder.java:403) ~[kafka-clients-1.0.0.jar:na]
...
App.java
package com.example.demos
当将事件发布到kafka主题时,我会遇到以下异常
org.apache.kafka.common.errors.RecordTooLargeException: The message is 2063239 bytes when serialized which is larger than the maximum request size you have configured with the max.request.size configuration.
我看了
我正在使用下面的spring云版本,没有在我的pom中为spring-cloud-stream-kafka-binder提供任
我有一个问题,反序列化来自卡夫卡主题的信息。这些消息已经使用spring云流和Apache序列化。我正在使用Spring阅读它们,并试图对它们进行反序列化。如果我同时使用spring来生成和使用消息,那么我可以很好地反序列化这些消息。问题是当我用Spring消费它们,然后尝试反序列化。
我使用的是模式注册表(用于开发的spring架构注册表,以及生产中的合流模式),但是反序列化问题似乎发生在调用Schema的事件之前。
很难将所有相关代码都发布在这个问题上,所以我已经将其发布在git中心的回购程序中:。
我在这个主题上发送的对象只是一个简单的pojo:
@Data
public class R
我使用弹簧云流:3.2.2弹簧云流绑定卡夫卡:3.2.5 spring-cloud-stream-binder-kafka-streams:3.2.5
我想在反应性编程中写出消费者卡夫卡。我使用avro模式注册表。在我的例子中,我在一个主题中输入了多个事件。我的使用者使用所有类型,但我想在每个事件类型中编写一个使用者。在您的文档中,我找到了一些关于路由的信息。在反应模式下,我只能在application.yml中使用路由表达式。但这对我没用。你能帮我吗?我试过几件事,但我不明白为什么它不起作用。我的2消费者消费所有的事件类型,不是特定的。
我的两个消费者:
@Bean
public C