当前位置: 首页 > article >正文

Redis: RDB与AOF的选择和容灾备份以及Redis数据持久化的优化方案

如何选择RDB和AOF


1 )同时开启

  • 在我们 Redis 的服务器上,把RDB和AOF同时打开, 这样可以通过RDB快速的恢复数据,因为它是一个紧凑的缩缩的二进制文件, 但是有时 Redis 的不小心故障了,丢失了十几分钟的数据

  • 可以通过AOF来做数据的恢复, 因为它所有写命令都会记录,Redis先加载AOF文件来恢复原始数据,因为AOF数据比RDB更完整,有时候我们会把一些错误的命令也记录在文件中, 会有一些潜在的bug,可以通过 redis-check-aof 来做修复,如果AOF文件实在是用不了,恢复不了,可以把RDB作为一种后备数据来使用,这就是最常用的一种方式

  • 为了考虑性能,可以只在Slave上开启RDB,并且15min备份一次,因为在主从模式下让从节点去实现持久化,其实也是可以达到避免数据丢失的这样的一个效果,如果为了避免 AOF rewite的IO以及阻塞,可以在Redis集群中不开启AOF, 靠集群的备份机制来保证可用性,在启动时选取较新的RDB文件,如果集群全部崩溃,会丢失15min前的数据

2 )混合模式

  • Redis4.0开始支持该模式
  • 解决的问题:Redis在重启时通常是加载AOF文件,但加载速度慢
  • 因为 RDB 数据不完整,所以加载 AOF
  • 开启方式:aof-use-rdb-preamble true
  • 开启后,AOF在重写时会直接读取RDB中的内容
  • 运行过程:通过 bgrwriteaof 完成,不同的是当开启混合持久化后
    • 子进程会把内存中的数据以RDB的方式写入aof中
    • 把重写缓冲区中的增量命令以AOF方式写入到文件
    • 将含有RDB个数和AOF格数的AOF数据覆盖旧的AOF文件
  • 新的AOF文件中,一部分数据来自RDB文件,一部分来自Redis运行过程时的增量数据

3 ) 数据恢复

  • 当我们开启了混合持久化时,启动Redis依然优先加载aof文件,aof文件加载可能有两种情况如下:
    • aof文件开头是rdb的格式,先加载 rdb内容再加载剩余的 aof
    • aof文件开头不是rdb的格式,直接以aof格式加载整个文件
  • 优点:既能快速备份又能避免大量数据丢失
  • 缺点:RDB是压缩格式,AOF在读取它时可读性较差

二者动态切换

  • 在Redis 2.2或以上版本,可以在不重启的情况下,从RDB切换到AOF:
    • 为最新的dump.rdb文件创建一个备份
    • 将备份放到一个安全的地方 cp dump.rdb dump.rdb.bak
  • 执行以下两条命令:
    # 开启 aof
    redis-cli config set appendonly yes
    # 关闭 rdb
    redis-cli config set save ""
    
  • 确保写命令会被正确地追加到AOF文件的末尾
  • 执行的第一条命令开启了AOF功能:
    • Redis会阻塞直到初始AOF文件创建完成为止,所以不要在高峰期做这个事情
    • 之后Redis会继续处理命令请求,并开始将写入命令追加到AOF文件末尾

Redis容灾备份


1 ) 开启RDB持久化

save 900 1
save 300 10
save 60 10000

2 ) 开启AOF配置

# 开启 aof
appendonly yes
appendfilename "appendony. aof"

# rewrite
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb

# appendfsync always
appendfsync everysec
# appendfsync no

3 ) RDB日志备份,编写脚本定时备份

  • vim bin/redis-rdb-copy-per-hour.sh

    #!bin/bash
    cur_date=$(date "+%Y%m%d%H%M%S")
    rm -rf /usr/local/redis/snapshotting/$cur_date
    mkdir -p /usr/local/redis/snapshotting/$cur_date
    cp /usr/local/redis/data/dump.rdb /usr/local/redis/snapshotting/$cur_date
    
    del_date=$(date -d -48hour "+%Y%m%d%H%M")
    rm -rf /usr/local/redis/snapshotting/$del_date
    
    • 备份与删除48小时之前的
  • 使用 crontab 定时器执行备份脚本

    • 确保机器上有定时任务服务 $ systemctl status crond 可看到定时服务是运行的状态
    • 默认linux都会集成 crond 服务,没有启动,进行 start 即可
    • 现在编写定时任务 :$ crontab -e
    • 下面写入 (以下为每分钟执行一次,生产环境可调整为每小时执行一次)
      */1 * * * * sh /usr/local/redis/bin/redis-rdb-copy-per-hour.sh
      */1 * * * * sleep 10; sh /usr/local/redis/bin/redis-rdb-copy-per-hour.sh
      */1 * * * * sleep 20; sh /usr/local/redis/bin/redis-rdb-copy-per-hour.sh
      */1 * * * * sleep 30; sh /usr/local/redis/bin/redis-rdb-copy-per-hour.sh
      */1 * * * * sleep 40; sh /usr/local/redis/bin/redis-rdb-copy-per-hour.sh
      */1 * * * * sleep 50; sh /usr/local/redis/bin/redis-rdb-copy-per-hour.sh
      
      • 这里虽然每分钟执行一次,但是加上了 sleep 用来演示阻塞的效果,仅仅是演示
      • */1 表示“每 1 分钟”,而其余的星号分别代表小时、日期、月份和星期几,这里用星号表示任意值
      • 生产环境配置如:0 * * * * sh /usr/local/redis/bin/redis-rdb-copy-per-hour.sh 每小时执行一次
    • 查看定时任务列表 $ crontab -l
    • 到时间后,检查是否生成相应的备份
  • 这样就实现了通过脚本来实现了容灾备份

  • 考虑到恢复,则考虑到 redis 进程挂掉了

    • 基于 aof 和 rdb 文件恢复即可
    • 如果 aof 文件损坏了,可以通过机器上最新时间段的rdb副本来恢复

Redis 持久化的优化方案


1 )独立部署

  • 因为Redis 的RDB和AOF文件生成的这个过程,除了会对内存和硬硬盘造成压力之外
  • 它其实都是属于一个CPU密集型的操作,所以最好是把 Redis 单独部署在一台服务器上
  • 不要和其他的存储服务, 例如关系数据库或者说消息队列服务部署在一起
  • 消息队列和关系数据库本来就会有大量的磁盘IO
  • 再加上 Redis 的话,可能磁盘和CPU就会受不了
  • 选择独立部署,其实就是为了解决子进程的频繁开销的问题

2 ) 硬盘优化

  • 可以根据写入量来决定,比如当前这个 Redis 的服务器,它有大量的写入请求的话
  • 可以决定是否使用性能更高的SSD的磁盘

3 ) 缓存禁用持久化

  • 如果我们业务的Redis 它的定位就是做缓存
  • 缓存的数据肯定是在别的地方都已经有的,即使它丢失了也不要紧
  • 这个缓存备份,就是AB两套缓存:比如,A缓存失效了,马上B缓存顶上去
  • 只需要把这种方案做好就行, 持久缓存的数据丢失了,是不需要考虑的
  • 因为这个缓存的数据肯定是在关系数据库里边都有的,丢失了也不要紧
  • 所以说这种场景下,就可以把 Redis 这个节点的持久化功能,直接给它禁用掉
  • 这样它从关系数据库加载提供缓存的服务就可以了

4 ) 主从模式从持久化

  • 从模式主从模式从节点的数据是从主节点复制的
  • 因为从节点我们一般是不会开启写模式的,也就是它是只读的
  • 它是写不进去数据的,它的数据都是通过主节点复制过去的
  • 但是它每次从主节点复制数据的时候,首先会主节点进行一次BGSAVE的操作
  • 然后跟磁盘交互一下,生成RDB的快照,然后再把快照发给从节点,这就是一次复制的过程
  • 如果从节点频繁的跟主节点进行复制,那么主节点这边肯定会压力比较大
  • 因为它频繁的在fork 进程去做RDB快照生成这件事情
  • 这样可以考虑,把主节点的持久化给它关闭掉, 从节点来做持久化
  • 比如说,从节点,15分钟备份一次,只需要在从节点上添加一个 save 900 1 就可以了
  • 甚至可以把AOF也给它禁用掉,因为 master/slave 主从已经高可用了,数据是不可能丢失的
  • 因为15分钟内,假如说某一节点的数据丢失了,但还有其他的节点还在工作着
  • 所以说不可能像之前单节点十几分钟的一个很长的窗口期,当掉了,数据全丢了
  • 也可以考虑AOF的禁用,那就又节省掉了一大笔的IO的行为
  • 因为AOF它在 rewrite 的时候肯定会带来一个系统的波动,因为AOF的同步策略默认情况下是每秒
  • 每一次的同步实际上都是它要去把这些数据从缓冲区写到一个AOF文件里边
  • 最后会覆盖掉原来的那个AOF文件,它是这样去做的
  • 新浪微博的架构就是
    • 主从模式, 从节点备份
    • 然后关闭主节点AOF提高性能

5 ) 优化 fork 处理

  • 这个优化就是降低 AOF 的重写频率
  • RDB它虽然是子进程 fork 在做这件事情,但是RDB毕竟是一个很长的时间窗口期才会去做这件事儿
  • 所以,降低重写频率,说的无非就是我们开启了AOF的情况
  • 比如说,现在已经超过64m了,它就会rewrite,在rewrite的这个过程中,它肯定是会影响到性能的
  • 那我们把 rewrite的执行的这个时间给它拉长,即把重写上限调高,比如从 64m 到 5g
  • 这样就可以降低rewrite的一个触发的频率
  • 这样,也会提高我们的性能,降低 fork 子进程的一个创建
  • 还有一个AOF的配置优化,在重写的时候,要不要去执行正常的追加操作
    • 如果说在它重写的这个期间段内,本来就已经带来阻塞了
    • 然后我还让它去正常进入我们正常的一些命令
    • 这个时候它又要去folk进程去做这件事,开销销比较大的
    • 我们可以把这个 no-appendfsync-on-rewrite 选项改为 yes ,(默认是 no)
    • 改为yes之后,AOF 重写段内不去执行接收正常命令追加的这个行为
    • 这样的话,它就会专心去做 rewrite,rewrite做完才会继续接受命令
    • 这个方案不好的地方就是重写期间的数据可能会丢失,需要根据具体生产环境
    • 包括你的服务器CPU硬盘各方面因素来决定的,如果你的硬盘是能扛得住的
    • 你的服务器性能是比较好的,就可以忽略,这个选项不要去禁用
    • 让它在重写期间仍然可以执行正常的追加就可以了

http://www.kler.cn/news/325610.html

相关文章:

  • X86架构(九)——保护模式的进入
  • Hive数仓操作(三)
  • 使用Vue.extend( ) 模仿 elementui 创建一个类似 message 消息提示框
  • AI大模型之旅-最强开源文生图工具Stable Diffusion WebUI 教程
  • Safari 浏览器中的 <audio> 标签的控件无效 - 解决方法
  • linux信号 | 学习信号三步走 | 全解析信号的产生方式
  • 数据结构双链表和循环链表
  • 高级主题:接口性能测试与压力测试
  • 0基础跟德姆(dom)一起学AI 数据处理和统计分析08-日期类型处理,Matplotlib介绍
  • 事务的四大特性(ACID)
  • 直接用Bash发送HTTP请求 —— 筑梦之路
  • 【代码随想录Day27】贪心算法Part01
  • C#基于SkiaSharp实现印章管理(10)
  • 【Linux的内存管理】
  • zy81_C#中在窗体中实现坐标变换
  • 基于SSM的“银发在线教育云平台”的设计与实现(源码+数据库+文档)
  • Race Karts Pack 全管线 卡丁车赛车模型素材
  • CSS 中的@media print 是干什么用的?
  • Spark_UDF处理缺失值或空值
  • node实现大文件切片上传的方法
  • R整理数据技巧
  • 解决sortablejs+el-table表格内限制回撤和拖拽回撤失败问题
  • Redis string类型hash类型
  • 在pycharm中怎样调试HTML网页程序
  • B-树(不是B减树)原理剖析(1)
  • 有些硬盘录像机接入视频汇聚平台EasyCVR后通道不显示/显示不全,该如何处理?
  • Qt 学习第十一天:QTableWidget 的使用
  • 启动hadoop集群出现there is no HDFS_NAMENODE_USER defined.Aborting operation
  • 基于HTML、CSS和JavaScript的滚动数字显示效果,类似于老式计数器或电子表上的数字滚动效果
  • JAVA并发编程高级——JDK 新增的原子操作类 LongAdder