当前位置: 首页 > article >正文

SpringBoot链接Kafka

一、SpringBoot生产者

(1)修改SpringBoot核心配置文件application.propeties, 添加生产者相关信息

# 连接 Kafka 集群
spring.kafka.bootstrap-servers=192.168.134.47:9093

# SASL_PLAINTEXT 和 SCRAM-SHA-512 认证配置
spring.kafka.properties.security.protocol=SASL_PLAINTEXT
spring.kafka.properties.sasl.mechanism=SCRAM-SHA-512
spring.kafka.properties.sasl.jaas.config=“kafka链接的验证账户和密码”

# 生产者配置
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

(2)创建controller从浏览器接收数据, 并写入指定的topic

@RestController
public class ProducerController {

    @Autowired
    KafkaTemplate<String, String> kafka;

    @RequestMapping("/atguigu")
    public String data(String msg){
        // 通过kafka发送出去
        kafka.send("WJ-TEST", msg);

        return "ok";
    }
}

(3)在浏览器中给/atguigu接口发送数据

http://localhost:8080/atguigu?msg=hello

二、SpringBoot消费者

(1)修改SpringBoot核心配置文件application.propeties

# 连接 Kafka 集群
spring.kafka.bootstrap-servers=192.168.134.47:9093

# SASL_PLAINTEXT 和 SCRAM-SHA-512 认证配置
spring.kafka.properties.security.protocol=SASL_PLAINTEXT
spring.kafka.properties.sasl.mechanism=SCRAM-SHA-512
spring.kafka.properties.sasl.jaas.config=“kafka链接的验证账户和密码”

# 生产者配置
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

# 消费者配置
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

# 消费者组 ID
spring.kafka.consumer.group-id=atguigu

# 消费偏移量配置:从最早偏移量开始消费
spring.kafka.consumer.auto-offset-reset=earliest

# 自动提交偏移量
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval=1000

(2)创建类消费Kafka中指定topic的数据

@Configuration
public class KafkaConsumer {

    @KafkaListener(topics = "WJ-TEST")
    public void consumerTopic(String msg){
        System.out.println("收到消息:" + msg);
    }
}

(3) 向WJ-TEST主题发送数据

bin/kafka-console-producer.sh --bootstrap-server kafka1:9093 --topic WJ-TEST --producer.config ./config/scram_common.properties

(4)消费到数据


http://www.kler.cn/a/507210.html

相关文章:

  • 在 .NET 9 中使用 Scalar 替代 Swagger
  • 基于 Python 的财经数据接口库:AKShare
  • NFTScan | 01.06~01.12 NFT 市场热点汇总
  • 图论基础,如何快速上手图论?
  • Redis哨兵模式搭建示例(配置开机自启)
  • 代码随想录25 回溯算法
  • 78_Redis网络模型
  • K8S--边车容器
  • 如何Python机器学习、深度学习技术提升气象、海洋、水文?
  • 2025第3周 | json-server的基本使用
  • Linux下使用MySql数据库
  • 采用海豚调度器+Doris开发数仓保姆级教程(满满是踩坑干货细节,持续更新)
  • 浏览器中的Markdown编辑器
  • 【2024年华为OD机试】(B卷,100分)- 相对开音节 (Java JS PythonC/C++)
  • java常用开发工具类
  • uniapp 自定义日历组件 源码
  • Spring Boot中的自动配置原理是什么
  • 2025智能网联汽车数据分类分级白皮书
  • redis(2:数据结构)
  • 【云岚到家】-day03-门户缓存方案选择