在卡夫卡流中,产生/写流的规范方式是什么?在Spark中,有一个自定义接收器,它作为来自任意数据源的长时间运行适配器工作。什么是卡夫卡流中的等价物?具体来说,我不是在问如何从一个话题转换到另一个主题。这方面的文件是非常清楚的。我想了解如何写我的工人,这将是第一次写在一系列的转换为卡夫卡。builder1.<something>(<some intake worker like a spark
我想从套接字中获取数据,并把它放到kafka主题中,我的flink程序可以从主题中读取数据并进行处理。我可以在一个节点上做到这一点。但是我想要一个kafka集群,它至少有三个不同的节点(不同的IP地址),并通过套接字轮询数据在节点之间分发,我不知道如何做到这一点,并更改此代码。available in the web interface
env.getConfig().setGlobalJobParameters(params