当前位置: 首页 > article >正文

Spring Boot中整合Flink CDC 数据库变更监听器来实现对MySQL数据库

Flink CDC(Change Data Capture)是Flink的一种数据实时获取的扩展,用于捕获数据库中的数据变化,并且通过实时流式处理机制来操作这些变化的数据,在Flink CDC中通过Debezium提供的数据库变更监听器来实现对MySQL数据库的监听操作,通过与Spring Boot技术的集成可以更加高效的实现数据实时同步的操作。

下面我们就来介绍一下如何在Spring Boot中集成Flink CDC。

环境搭建

首先我们可以通过Docker容器技术来构建一个MySQL的数据库容器如下所示。

docker run --name mysql -e MYSQL_ROOT_PASSWORD=root -d -p 3306:3306 mysql:8.0

然后我们可以连接数据库然后创建用于测试的数据库表结构,如下所示。

CREATE DATABASE testdb;
USE testdb;

CREATE TABLE employee (
    id INT AUTO_INCREMENT PRIMARY KEY,
    name VARCHAR(255),
    age INT
);

INSERT INTO employee (name, age) VALUES ('John', 28), ('Alice', 30), ('Bob', 25);

搭建好MySQL数据库服务之后,接下来我们可以通过Docker启动Flink服务,如下所示。

docker run -d -p 8081:8081 --name flink-jobmanager flink:latest
docker run -d --link flink-jobmanager --name flink-taskmanager flink:latest taskmanager

在Spring Boot项目中集成Flink CDC

准备好服务之后,接下来我们就来构建一个Spring Boot的项目用来连接Flink CDC。如下所示,首先需要在项目的POM文件中添加Flink CDC和其他所需的依赖

<dependencies>
    <!-- Spring Boot dependencies -->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-data-jpa</artifactId>
    </dependency>

    <!-- Flink dependencies -->
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-connector-jdbc_2.11</artifactId>
        <version>1.16.0</version>  <!-- 根据需要调整版本 -->
    </dependency>

    <!-- Flink CDC dependencies -->
    <dependency>
        <groupId>com.ververica</groupId>
        <artifactId>flink-connector-debezium-mysql_2.11</artifactId>
        <version>1.16.0</version>
    </dependency>

    <!-- MySQL JDBC driver -->
    <dependency>
        <groupId>mysql</groupId>
        <artifactId>mysql-connector-java</artifactId>
        <version>8.0.25</version>
    </dependency>
</dependencies>

接下来就需要将Flink CDC连接到MySQL数据库并监听数据变动,需要在Spring Boot的配置文件中添加Flink CDC连接参数,如下所示。

spring.datasource.url=jdbc:mysql://localhost:3306/testdb?useSSL=false&serverTimezone=UTC
spring.datasource.username=root
spring.datasource.password=root

Flink CDC作业实现

接下来就是需要创建一个Flink作业来捕获数据库的变更情况并进行相关的逻辑处理,如下所示。

public class FlinkCDCJob {

    public static void main(String[] args) throws Exception {
        // 1. 创建流处理环境
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        // 2. 配置Flink CDC的Debezium源
        DebeziumSourceFunction<String> sourceFunction = DebeziumSourceFunction
            .<String>builder()
            .hostname("localhost")
            .port(3306)
            .username("root")
            .password("root")
            .databaseList("testdb")
            .tableList("testdb.employee")
            .startupMode(DebeziumSourceFunction.StartupMode.LATEST_OFFSET)
            .deserializer(new JsonNodeDeserializationSchema())
            .build();

        // 3. 创建CDC数据流
        DataStream<String> stream = env.addSource(sourceFunction);

        // 4. 打印数据到控制台
        stream.map(new MapFunction<String, String>() {
            @Override
            public String map(String value) throws Exception {
                return "CDC 数据:" + value;
            }
        }).print();

        // 5. 执行作业
        env.execute("Flink CDC Example");
    }
}

根据上面的代码实现,DebeziumSourceFunction用来配置一个数据库的连接,然后制定好需要监听的数据库以及数据库表,然后我们可以启动项目然后可以尝试往MySQL数据库的employee表中插入、更新或者是删除数据,这个时候我们就可以看到控制台中有对应的数据变化监听打印信息。

监听到数据变化情况之后,接下来,我们可以通过Flink的实时流处理操作将数据推送到Kafka、ElasticSearch等数据存储中。

总结

在上面介绍中,我们介绍了如何在Spring Boot中整合Flink CDC来实现数据库数据变化的实时捕获监听操作,在实际实现中,我们可以根据具体的业务需求对操作进行进一步的扩展,例如可以将CDC数据写入Kafka、Hadoop、Elasticsearch等实时数据平台,构建更强大的数据流处理系统。


http://www.kler.cn/a/557452.html

相关文章:

  • 工业级无人机手持地面站技术详解
  • 基于SpringBoot+vue+uniapp的智慧旅游小程序+LW示例参考
  • DirectX SDK(June 2010)安装报错:S1023
  • 0222-leetcode-1768.交替合并字符串、389找不同、
  • 0基础学Linux系统(准备1)
  • Java试题:进制转换
  • SQL Server 创建用户并授权
  • 【部署优化篇十三】深度解析《DeepSeek API网关:Kong+Nginx配置指南》——从原理到实战的超详细手册
  • 3.3.2 交易体系构建——缠论操作思路
  • Git常见命令--助力开发
  • C++ 设计模式-中介者模式
  • Python采用DeepSeekR1本地部署+本地API接口实现简单对话
  • 基于传统信息检索算法 BM25 的检索器 和 基于大语言模型生成的文本嵌入(dense embeddings)来计算相似度的检索器 两者的区别和联系
  • docker搭建tars框架
  • Pytorch的F.cross_entropy交叉熵函数
  • 51单片机-串口通信编程
  • 创建监听器报错“一个或多个listeners启动失败”
  • 区块链相关方法-PEST分析
  • 如何在cursor上使用 deepseek 模型
  • 深入理解 JSP 与 Servlet:原理、交互及实战应用