我们在使用Springboot构建项目时,在很多场合需要将业务数据推送到数据平台中。业务系统和数据平台之间数据交换的桥梁我们可以选择kafka,基于此,我们需要整合kafka与Springboot。一边是我们要将数据推送到数据平台做处理,一边是我们要将数据平台处理的结果在业务系统中进行展示。所以就需要整合生产者和消费者。本篇我们将介绍在Springboot如何整合Kafka。
一. 环境准备
1. pom文件
2. 配置
3. KafkaProducerConfig,用来作为生产者的配置
4. KafkaConsumerConfig,用来作为消费的配置
其中Listener是用来监听我们所订阅的消息,其定义如下:
5. KafkaSpringboot,启动类,我们在这定义了一个rest接口,用来模拟发送消息
二. 测试
我们启动启动类,然后调用 http://localhost:9009/producer 接口,查看控制台输出
我们可以看到,当我们调用rest接口时,给beardata主题发送了一条"hello.beardata"的消息,然后在Listener中我们对消息进行了消费,和我们预期的结果一样。
本篇我们介绍了Kafka 与Springboot的整合,下一篇我们将介绍Kafka与Spark Streaming整合。
领取专属 10元无门槛券
私享最新 技术干货