当前位置: 首页 > article >正文

实现:多活的基础中间件

APIRouter : 路由分发服务
API Router 是一个 HTTP 反向代理和负载均衡器,部署在公有云中作为 HTTP API 流量的入口,它能识别
出流量的归属 shard ,并根据 shard 将流量转发到对应的 ezone API Router 支持多种路由键,可以
是地理位置,也可以是商户 ID ,订单 ID 等等,最终由 API Router 映射为统一的 Sharding ID
Global Zone Service :全局状态协调器
GZS 维护着整个多活的路由表,其他所有的服务都从 GZS 订阅路由信息。切换机房的操作也在 GZS
制台中完成。路由表包括:地理围栏信息, shard ezone 的归属信息,商铺 ID /订单 ID 等路由逻辑
层到 shard id 的映射关系等。 GZS 通过在 SDK 端建立 Cache ,来保证 shard 逻辑能够最快速度执行,
基本不需要和 GZS 交互,同时也有实时推送机制,确保在数据变更后能够快速通知到其他的服务。
SOA Proxy :内部网关
SOA Proxy 实现了对 SOA 调用的路由,执行和 API Router 相似的逻辑,但只用在机房之间进行通信的
场景。业务使用 SOA Proxy 需要对代码做一些修改,把路由信息加入到调用的上下文中。
Data Replication Center :数据复制
DRC 负责 Mysql 数据的实时双向复制,保证跨机房延时在 1s 以内。提供了基于时间的冲突解决方案,
确保各个机房的数据一致。 DRC 除了复制数据,还对外提供了数据变更的通知,让业务能够感知到其他
机房的数据变化,做相应的处理,例如清除 Cache 等。
除了 DRC ,我们还有 ZK 复制工具, RMQ 复制工具, Redis 复制工具,基本每个数据层次,都有对应的
复制方案。
Data Access Layer :数据访问
数据访问层支撑了 Globa Zone 的逻辑,还提供了最后一道保护,拒绝路由错误的数据写入,是多活最 底层的支撑。
Mysql 数据复制工具 DRC:
Mysql 的数据量最大,每个机房产生的数据,都通过 DRC 复制到其他 ezone ,每个 ezone 的主键取值 空间是ezoneid + 固定步长,所以产生的 id 各不相同,数据复制到一起后不会发生主键冲突。按照分区 规则,正常情况下,每个 ezone 只会写入自己的数据,但万一出现异常, 2 ezone 同时更新了同一笔 数据,就会产生冲突。DRC 支持基于时间戳的冲突解决方案,当一笔数据在两个机房同时被修改时,最 后修改的数据会被保留,老的数据会被覆盖。
整体结构

推荐阅读

设计:异地多活的实现思路和方法


http://www.kler.cn/a/542587.html

相关文章:

  • 借助 ListWise 提升推荐系统精排效能:技术、案例与优化策略
  • Kafka的消费消息是如何传递的?
  • data attributes
  • 网络安全溯源 思路 网络安全原理
  • 今日AI和商界事件(2025-02-10)
  • DeepSeek本地部署详细指南
  • 深入解析 Kafka 消费者偏移量管理
  • 国产化人工智能“产学 研用”一体化创新模式的智慧快消开源了
  • Jetpack之ViewBinding和DataBinding的区别
  • 【Xposed】在 Android Studio 中使用 Kotlin DSL 自动结束并启动应用进程
  • 2024-2025年计算机毕业设计选题推荐 -计算机专业毕业设计题目大全
  • 强化学习关键技术:重要性采样深度剖析
  • 基于springboot+vue的游戏创意工坊与推广平台的设计与实现
  • 关于JVM
  • 前端打包后的dist文件太大怎么办?如何优化处理?
  • c语言判断一个文件的文件格式
  • maven web项目如何定义filter
  • 智能同义词处理与命中优化:提升知识库查询精度
  • 科研自动化实操:用Make工具批量自动进行文献总结
  • C++蓝桥杯基础篇(二)
  • 机器学习(李宏毅)——self-Attention
  • 金媒婚恋交友系统V10.5的CRM操作提示:“您没有权限执行此操作”解决方法
  • 稠密架构和稀疏架构
  • SUNM2改进版GOMSM2晋升2020改进版完整传奇引擎源码及教程
  • 开源的 DeepSeek-R1「GitHub 热点速览」
  • Python3连接MongoDB并写入数据