一、缓存的收益与成本

1.1 收益

主要有以下两大收益。

  • 加速读写:通过缓存加速读写,如 CPU L1/L2/L3 的缓存、Linux Page Cache 的读写、游览器缓存、Ehchache 缓存数据库结果。
  • 降低后端负载:后端服务器通过前端缓存来降低负载,业务端使用 Redis 来降低后端 MySQL 等数据库的负载。

1.2 成本

产生的成本主要有以下三项。

  • 数据不一致:这是因为缓存层和数据层有时间窗口是不一致的,这和更新策略有关的。
  • 代码维护成本:这里多了一层缓存逻辑,就会增加成本。
  • 运维费用的成本:如 Redis Cluster,甚至是现在最流行的各种云,都是成本。

1.3 使用场景

使用场景主要有以下三种。

  • 降低后端负载:这是对高消耗的 SQL,join 结果集和分组统计结果缓存。
  • 加速请求响应:这是利用 Redis 或者 Memcache 优化 IO 响应时间。
  • 大量写合并为批量写:比如一些计数器先 Redis 累加以后再批量写入数据库。

二、缓存的更新策略

主要有以下三种策略。

  • LRU、LFU、FIFO 算法策略。例如 maxmemory-policy,这是最大内存的策略,当 maxmemory 最大时,会优先删除过期数据。我们在控制最大内存,让它帮我们去删除数据。
  • 过期时间剔除,例如 expire。设置过期时间可以保证其性能,如果用户更新了重要信息,应该怎么办。所以这个时候就不适用了。
  • 主动更新,例如开发控制生命周期。

这三个策略中,一致性最好的就是主动更新。能够根据代码实时的更新数据,但是维护成本也是最高的;算法剔除和超时剔除一致性都做的不够好,但是维护成本却非常低。

根据缓存的使用场景,我们会采用不同的更新策略。

实际开发中我给大家以下两个建议。

  • 低一致性:最大内存和淘汰策略,数据库有些数据是不需要马上更新的,这个时候就可以用低一致性来操作。
  • 高一致性:超时剔除和主动更新的结合,最大内存和淘汰策略兜底。你没办法确保内存不会增加,从而使服务不可用了。

三、缓存粒度问题

我们知道,用户第一次访问客户端,客户端访问 Redis 肯定是没有的,这个时候只能从数据库 DB 那里获取信息,代码如下

select * from t_teacher where id= {id}

在 Redis 设置用户信息缓存,代码如下

set teacher:{id} select * from t_teacher where id= {id}

这个时候我们来看看缓存粒度问题。

  • 因为我们要更新全部属性。到底我们是采用 select * 还是仅仅只是更新你需要更新的那些字段呢?如下两段代码
set key1 = ? from select * from t_teacher
set key1 = ? from select key1 from t_teacher

缓存粒度控制可以从以下三个角度来观察,通过这三点来决定如何选择。

  • 通用性:全量属性更好。上面一个对比 * 和某个字段的查询,最好是通过全量属性,这样的话,select * 具有很好的通用性,因为如果你 select 某个字段的话,未来如果一旦业务改变,代码也要随之改变才可以。
  • 占用空间:部分属性会更好。因为这样占用的空间是最小的。
  • 代码维护上:表面上全量属性会更好。我们真的需要全量吗?其实我们在使用缓存的时候,优先考虑的是内存而不单单只是保证代码的扩展性。

四、缓存穿透问题


<mark>当请求发送给服务器的时候,缓存找不到,然后都堆到数据库里,数据库也没有数据时,无法进行缓存的回写。</mark>

原因有两点:

  • 业务代码自身的问题。很多实际开发的时候,如果是一个不熟练的程序员,由于缺乏必要的大数据的意识,很多代码在第一次写的时候是 OK 的,但是当需要修改业务代码的时候,常常会出现问题。
  • 恶意攻击和爬虫问题。网络上充斥着各种攻击和各种爬虫模仿着人为请求来访问你的数据。如果恶意访问穿透你的数据库,将会导致你的服务器瞬间产生大量的请求导致服务中止。

那我们去如何发现这些问题呢?

  • 业务的相应时间:一般请求的时间都是稳定的,但是如果出现类似穿透现象,必然在短时间内有一个体现。
  • 业务本身的问题。产品的功能出现问题。
  • 对缓存层命中数、存储层的命中数这些值的采集。

解决方案1:缓存空对象

  • 当缓存中不存在,访问数据库的时候,又找不到数据,需要设置给 cache 的值为 null,这样下次再次访问该 id 的时候,就会直接访问缓存中的 null 了。

但是可能存在的两个问题。

  • 首先是需要更多的键,但是如果这个量非常大的话,对业务也是有影响的,所以需要设置过期时间
  • 其次是缓存层和存储层数据“短期”不一致。当缓存层过期时间到了以后,可能会产生和存储层数据不一致的情况。这个时候需要使用一些消息队列等方式,来确保这个值的一致性。

下面的代码用 Java 来实现简单的缓存空对象

public String getCacheThrough(String key){
    String cacheValue = cache.get(key);
    if(StringUtils.isBlank(cacheValue)){ // 如存储数据为空
        String storageValue = storage.get(key);
        cache.set(key,storageValue);//需要设置一个过期时间
        if(StringUtils.isBlank(strageValue){
            cache.expire(key.60*10);
}    
    return storageValue;
    }else{
    return cacheValue;
 }
}

解决方案2:布隆过滤器拦截

  • 布隆过滤器,实际上是一个很长的二进制向量和一系列随机映射函数。布隆过滤器可以用于检索一个元素是否在一个集合中
  • 它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。

  • 类似于一个字典,你查词典的时候不需要把所有单词都翻一遍,而是通过目录的方式,用户通过检索的形式在极小内存中可以找到对应的内容。

缺点

  • 虽然布隆过滤器可以通过极小的内存来存储,但是免不了需要一部分代码来维护这个布隆过滤器,并且经常需要根据规则来调整,在选取是否使用布隆过滤器,还需要通过场景来选取。

五、缓存雪崩

缓存雪崩是指缓存层由于某些原因不能正常提供服务,于是所有的请求都会来到存储层,导致存储层的调用量暴增,造成存储层也会级联宕机的情况。

优化方案

  • 保证缓存层服务高可用性(发生前)。如果缓存层设计成高可用的,即使个别节点、个别机器、甚至是机房宕掉,依然可以提供服务。可以使用Redis Sentinel和Redis Cluster实现高可用。
  • 依赖隔离组件为后端限流并降级,另外设置一个小缓存(发生中)。降级机制在高并发系统中是非常普遍的,可以使用Java依赖隔离工具Hystrix来实现限流和降级。同时可以在系统内部设置一个小型的本地缓存,可以用ehcache来实现这个功能。
  • 恢复缓存数据(发生后)。可以使用Redis的持久化机制,利用保存的数据来恢复缓存。

六、无底洞问题优化

无底洞问题就是即使加机器,性能却没有提升,反而降低了。

  • 当客户端增加一个缓存的时候,只需要 mget 一次,但是如果增加到三台缓存,这个时候则需要 mget 三次了,每增加一台,客户端都需要做一次新的 mget,给服务器造成性能上的压力。

  • 同时,mget 需要等待最慢的一台机器操作完成才能算是完成了 mget 操作。这还是并行的设计,如果是串行的设计就更加慢了。

通过上面这个实例可以总结出:更多的机器!=更高的性能

但是并不是没办法,一般在优化 IO 的时候可以采用以下几个方法。

  • 命令的优化。例如慢查下 keys、hgetall bigkey
  • 我们需要减少网络通讯的次数。这个优化在实际应用中使用次数是最多的,我们尽量减少通讯次数。
  • 降低接入成本。比如使用客户端长连接或者连接池、NIO 等等。

七、热点 Key 重建优化

我们知道,使用缓存,如果获取不到,才会去数据库里获取。但是如果是热点 key,访问量非常的大,数据库在重建缓存的时候,重建缓存速度比较慢,会出现很多线程同时重建的情况。

三个目标为:

  • 减少重建缓存的次数;
  • 数据尽可能保持一致;
  • 减少潜在的风险。

两个解决方案为

  • 互斥锁
  • 永不过期

7.1 互斥锁(mutex key)

由下图所示,第一次获取缓存的时候,加一个锁,然后查询数据库,接着是重建缓存。这个时候,另外一个请求又过来获取缓存,发现有个锁,这个时候就去等待,之后都是一次等待的过程,直到重建完成以后,锁解除后再次获取缓存命中。

那么这个过程是怎么做到的呢?请见下面代码演示

public String getKey(String key){
    String value = redis.get(key);
    if(value == null){
        String mutexKey = "mutex:key:"+key; //设置互斥锁的key
        if(redis.set(mutexKey,"1","ex 180","nx")){ //给这个key上一把锁,ex表示只有一个线程能执行,过期时间为180秒
          value = db.get(key);
          redis.set(key,value);
          redis.delete(mutexKety);
  }else{
        // 其他的线程休息100毫秒后重试
        Thread.sleep(100);
        getKey(key);
  }
 }
 return value;
}

但是互斥锁也有一定的问题,就是大量线程在等待的问题。

7.2 永远不过期

  • 首先在缓存层面,并没有设置过期时间(过期时间使用 expire 命令)。
  • 但是功能层面,我们为每个 value 添加逻辑过期时间,当发现超过逻辑过期时间后,会使用单独的线程去构建缓存。这样的好处就是不需要线程的等待过程。见下图。

public String getKey(final String key){
    V v = redis.get(key);
    String value = v.getValue();
    long logicTimeout = v.getLogicTimeout();
    if(logicTimeout >= System.currentTimeMillis()){
      String mutexKey = "mutex:key:"+key; //设置互斥锁的key
      if(redis.set(mutexKey,"1","ex 180","nx")){ //给这个key上一把锁,ex表示只有一个线程能执行,过期时间为180秒
        threadPool.execute(new Runable(){
            public void run(){
            String dbValue = db.getKey(key);
            redis.set(key,(dbValue,newLogicTimeout));//缓存重建,需要一个新的过期时间
            redis.delete(keyMutex); //删除互斥锁
     }
   };
  }
 }
}

7.3 总结