当前位置: 首页 > article >正文

Debezium系列之:记录一次源头数据库刷数据,造成数据丢失的原因

Debezium系列之:记录一次源头数据库刷数据,造成数据丢失的原因

  • 一、背景
  • 二、查看topic日志信息
  • 三、结论
  • 四、解决方法

一、背景

  • 源头数据库在很短的时间内刷了大量的数据,部分数据在hdfs丢失了
    在这里插入图片描述

  • 理论上debezium数据采集不会丢失,就需要排查数据链路某个节点是否有数据丢失。

  • 数据链路是:debezium——kafka——flume——hdfs

  • 根据经验定位数据在kafka侧丢失,下一面进一步确认是否数据在kafka侧丢失

二、查看topic日志信息

Kafka日志信息如下:

[2025-02-20 23:58:21,009] INFO [Log partition

http://www.kler.cn/a/559589.html

相关文章:

  • 爬虫第九篇-结束爬虫循环
  • 【Java八股文】07-Redis面试篇
  • 【每日八股】Redis篇(一):概述
  • 从零开始学习PX4源码9(部署px4源码到gitee)
  • Vue 中单向数据流原则
  • 设计模式-observer模式(观察者模式)
  • 云原生(五十六) | CDN概述
  • 代码随想录算法训练day62---图论系列6《并查集2》
  • 前端VUE3框架的快速搭建
  • CSS 盒子模型:网页布局的基石
  • BeautifulSoup、lxml/XPath和正则表达式在数据爬取中的适用场景
  • 骁勇善战的量化利器:多因子模型【量化理论】
  • Ryu:轻量开源,开启 SDN 新程
  • ubuntu22.04使用minikube安装k8s
  • 【僵尸进程】
  • socket编程详解
  • RK Android11 WiFi模组 AIC8800 驱动移植流程
  • redis的容器化部署
  • YOLOv5 的量化及部署 - RGB 专题
  • 在单片机中是否应该取消32.768kHz外部晶振