当前位置: 首页 > article >正文

49.Redis缓存设计与性能优化

缓存与数据库双写不一致小概率事件

//线程1 写数据库stock = 5 ---------------》更新缓存

//线程2 写数据库stock = 4 -----》更新缓存

//线程1 ------》写数据库stock = 10 -----》删除缓存

//线程2 -----------------------------------------------------------------------------------------------》写数据库stock = 9 -----》删除缓存

//线程3 -------------------------------------------------》查缓存(空)----》查数据库stock = 10------------------------------------------------------------------------》写缓存

使用 redisson 的 RReadWriteLock,让修改 stock 的地方串行执行,源码还是使用 lua 脚本实现。

开发规范与性能优化

key名设计

  • 可读性和可管理性: 以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,比如业务名:表名:id
  • 简洁性: 控制key的长度,不要包含特殊字符

vlaue设计原则

  • 拒绝bigkey
    • 字符串类型:它的big体现在单个value值很大,一般认为超过10KB就是bigkey
    • 非字符串类型:哈希、列表、集合、有序集合,它们的big体现在元素个数太多。一般来说,string类型控制在10KB以内,hash、list、set、zset元素个数不要超过5000。
    • 非字符串的bigkey,不要使用del删除,使用hscan、sscan、zscan方式渐进式删除,同时要注意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞)
    • bigkey的危害
      • 导致redis阻塞
      • 网络拥塞
      • 过期删除
        • 默认异步删除

bigkey的产生

一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的,来看几个例子:

(1) 社交类:粉丝列表,如果某些明星或者大v不精心设计下,必是bigkey。

(2) 统计类:例如按天存储某项功能或者网站的用户集合,除非没几个人用,否则必是bigkey。

(3) 缓存类:将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需要注意,第一,是不是有必要把所有字段都缓存;第二,有没有相关关联的数据,有的同学为了图方便把相关数据都存一个key下,产生bigkey。

如何优化bigkey

    • big list: list1、list2、…listN
    • big hash:可以讲数据分段存储,比如一个大的key,假设存了1百万的用户数据,可以拆分成200个key,每个key下面存放5000个用户数据
    • 如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要hmget,而不是hgetall)
  • 选择适合的数据类型
  • 控制key的生命周期

命令使用

  • hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历的需求可以使用hscan、sscan、zscan代替。
  • 禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令,或者使用scan的方式渐进式处理。
  • redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰。
  • 使用批量操作提高效率
    • 原生命令:例如mget、mset。
    • 非原生命令:可以使用pipeline提高效率。
    • 但要注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)。
    • 原生命令是原子操作,pipeline是非原子操作。
  • Redis事务功能较弱,不建议过多使用,可以用lua替代

客户端使用

  • 避免多个应用使用一个Redis实例
  • 使用带有连接池的数据库,可以有效控制连接,同时提高效率
  • 高并发下建议客户端添加熔断功能(例如sentinel、hystrix)
  • 设置合理的密码,如有必要可以使用SSL加密访问
  • redis的三种清除策略
    • 被动删除:当读/写一个已经过期的key时,会触发惰性删除策略,直接删除掉这个过期key
    • 主动删除:由于惰性删除策略无法保证冷数据被及时删掉,所以Redis会定期(默认每100ms)主动淘汰一批已过期的key,这里的一批只是部分过期key,所以可能会出现部分key已经过期但还没有被清理掉的情况,导致内存并没有被释放
    • 当前已用内存超过maxmemory限定时,触发主动清理策略,八种淘汰策略
      • 针对设置了过期时间的key做处理
        • volatile-ttl:在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删除,越早过期的越先被删除
        • volatile-random:就像它的名称一样,在设置了过期时间的键值对中,进行随机删除。
        • volatile-lru:会使用 LRU 算法筛选设置了过期时间的键值对删除。
        • volatile-lfu:会使用 LFU 算法筛选设置了过期时间的键值对删除。
      • 针对所有的key做处理
        • allkeys-random:从所有键值对中随机选择并删除数据。
        • allkeys-lru:使用 LRU 算法在所有数据中进行筛选删除。
        • allkeys-lfu:使用 LFU 算法在所有数据中进行筛选删除。
      • 不处理
        • noeviction:不会剔除任何数据,拒绝所有写入操作并返回客户端错误信息"(error) OOM command not allowed when used memory",此时Redis只响应读操作

LRU 算法(Least Recently Used,最近最少使用)

淘汰很久没被访问过的数据,以最近一次访问时间作为参考。

LFU 算法(Least Frequently Used,最不经常使用)

淘汰最近一段时间被访问次数最少的数据,以次数作为参考。

maxmemory-policy(默认是noeviction),推荐使用volatile-lru
当Redis运行在主从模式时,只有主结点才会执行过期删除策略,然后把删除操作”del key”同步到从结点删除数据。

使用带有连接池的数据库,可以有效控制连接,同时提高效率,标准使用方式

  • 连接池的最佳性能是maxTotal = maxIdle,这样就避免连接池伸缩带来的性能干扰。但是如果并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。
  • 计算资源池大小
    • 一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为1ms,一个连接的QPS大约是1000
    • 业务期望的QPS是50000
    • 理论上需要的资源池大小是50000 / 1000 = 50个。但事实上这是个理论值,还要考虑到要比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。
  • 可以给redis连接池做预热

JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
    JedisPool jedisPool;
    {
        System.out.println("=====初始化连接池=====");
        //资源池中最大连接数
        jedisPoolConfig.setMaxTotal(10);
        //资源池允许最大空闲的连接数
        jedisPoolConfig.setMaxIdle(10);
        //资源池确保最少空闲的连接数
        jedisPoolConfig.setMinIdle(2);
        //向资源池借用连接时是否做连接有效性检测(ping),无效连接会被移除。业务量很大时候建议设置为false(多一次ping的开销)
        jedisPoolConfig.setTestOnBorrow(true);

        jedisPool = new JedisPool(jedisPoolConfig, "127.0.0.1", 6379, 3000, null);


        //连接池预热示例代码
        List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle());
        for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
            Jedis jedis = null;
            try {
                jedis = jedisPool.getResource();
                jedis.clientSetname("client:" + i);
                minIdleJedisList.add(jedis);
                jedis.ping();
            } catch (Exception e) {
                e.printStackTrace();
            } finally {
                //注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。。
                //jedis.close();
            }
        }

        //统一将预热的连接还回连接池
        for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
            Jedis jedis = null;
            try {
                jedis = minIdleJedisList.get(i);
                //将连接归还回连接池
                jedis.close();

                System.out.println("连接" + jedis.clientGetname() + "归还成功");
            } catch (Exception e) {
                e.printStackTrace();
            } finally {
            }
        }
    }
    @GetMapping("pool")
    public String pool() {

        Jedis jedis = null;
        try {
            jedis = jedisPool.getResource();
            //具体的命令
            String set = jedis.set("pool:redis:", "1");
            System.out.println("使用连接:" + jedis.clientGetname() + " 执行" + " 结果:" + set);
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            //注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。
            if (jedis != null)
                jedis.close();
        }

        return "success";
    }

慢查询日志:slowlog

config get slow* #查询有关慢日志的配置信息
config set slowlog-log-slower-than 20000  #设置慢日志使时间阈值,单位微秒,此处为20毫秒,即超过20毫秒的操作都会记录下来,生产环境建议设置1000,也就是1ms,这样理论上redis并发至少达到1000,如果要求单机并发达到1万以上,这个值可以设置为100
config set slowlog-max-len 1024  #设置慢日志记录保存数量,如果保存数量已满,会删除最早的记录,最新的记录追加进来。记录慢查询日志时Redis会对长命令做截断操作,并不会占用大量内存,建议设置稍大些,防止丢失日志
config rewrite #将服务器当前所使用的配置保存到redis.conf
slowlog len #获取慢查询日志列表的当前长度
slowlog get 5 #获取最新的5条慢查询日志。慢查询日志由四个属性组成:标识ID,发生时间戳,命令耗时,执行命令和参数
slowlog reset #重置慢查询日志

布隆过滤器

布隆过滤器就是一个大型的位数组和几个不一样的无偏 hash 函数。所谓无偏就是能够把元素的 hash 值算得比较均匀。

布隆过滤器的实现原理

0000000000000000000
k1111
k2111
k3111

对 k1 进行多个 hash 计算获得数组索引值,add

对 k2 进行多个 hash 计算获得数组索引值,add

对 k3 进行多个 hash 计算获得数组索引值,exists,此时出现了 hash 碰撞,误判 k3 存在。

  • 适用于数据命中不高、 数据相对固定、 实时性低(通常是数据集较大) 的应用场景, 代码维护较为复杂, 但是缓存空间占用很少
  • 根据预计元素、误差率生成数组的长度。
  • 不能修改,只能重建。

布隆过滤器的代码示例

@GetMapping("bloom")
public String bloom() {
    Config config = new Config();
    List<String> nodes = Arrays.asList(
        "redis://192.168.139.135:8001",
        "redis://192.168.139.136:8002",
        "redis://192.168.139.137:8003",
        "redis://192.168.139.135:8004" ,
        "redis://192.168.139.136:8005",
        "redis://192.168.139.137:8006");
    //集群配置
    config.useClusterServers().setNodeAddresses(nodes);
    config.useClusterServers().setPassword("yes");
    RedissonClient redisson = Redisson.create(config);
    RBloomFilter<String> nameFilter = redisson.getBloomFilter("nameFilter");
    //初始化布隆过滤器:预计元素为100000000L,误差率为3%,根据这两个参数会计算出底层的bit数组大小
    nameFilter.tryInit(100000000L,0.03);

    String[] nameList = { "a", "b", "c", "d", "e", "f", "g", "h", "i", "j", "k"};
    String[] checkList = { "a1", "b2", "c3", "d", "e4", "f5", "g6", "h7", "i8", "j", "k"};

    for (String name : nameList) {
        nameFilter.add(name);
    }
    //判断下面号码是否在布隆过滤器中
    for (String name : checkList) {
        boolean rs = nameFilter.contains(name);
        System.out.println(name + " 检查结果:" + rs);
    }
    return "success";
}

http://www.kler.cn/a/106321.html

相关文章:

  • 31DNS设置
  • 222. 完全二叉树的节点个数【 力扣(LeetCode) 】
  • 外网访问 WebDav 服务
  • 动态规划-完全背包问题——322.零钱兑换
  • IC 脚本之VIM 记录
  • Spring中的Bean
  • 关于网络安全运营工作与安全建设工作的一些思考
  • 番外8.2 --- 后续
  • Linux 内核的 current
  • EtherNet Ip工业RFID读写器与欧姆龙PLC 配置示例说明
  • 【软件教程】如何用C++检查TCP或UDP端口是否被占用
  • 网工内推 | 急招网工,思科、华为认证优先,法定节假日三薪
  • mysql GRANT创建用户授权
  • 2023 年 的 DBA 有哪些变化?
  • zk-Bench:SNARKs性能对比评估工具
  • 【Linux】Linux+Nginx部署项目
  • Django viewsets 视图集与 router 路由实现评论接口开发
  • 大数据Flink(一百零四):SQL任务参数配置
  • 【ARM AMBA Q_Channel 详细介绍】
  • react-组件间的通讯
  • tftp服务的搭建
  • 京东(天猫)数据分析:2023下半年茶饮料市场高速增长,东方树叶一骑绝尘
  • pytorch 入门 (四)案例二:人脸表情识别-VGG16实现
  • 为什么虚拟dom会提高性能?
  • LSTM 与 GRU
  • 十九、类型信息(1)