Redis常用指令
- 启动命令
redis-server空格+redis.confg-------连接服务器
redis-cli ---------------开启客户端服务
- 设置一个key
语法:set key的名字 value具体的内容 例:set k1 nick
- 查询一个key
语法:get key的名字 例:get k1
- 得到当前库中所有key
语法:keys *
- 判断某个key是否存在:存在返回个数,不存在返回0
语法:exists [key]
- 查询某个key的类型
语法:type [key]

- 删除某个key
语法:del [key]

- 删除某个key------该删除方法为异步删除方法,根据不同的value选择非阻塞删除,仅是将key从keyspace元数据中删除,真正的删除会在后续的异步操作
语法:unlink [key]
- 设置key的过期时间
语法:expire [key] 过期时间 例:expire k4 10 设置k4的过期时间为10秒
- 查看key的过期时间
语法:ttl [key] 其中-2为已经过期,-1为永不过期,其他正数为还有多少秒过期
- 切换redis库,redis存在16个库,库的编号为0------15
语法:select [库号] 例:select 0 表示切换为0号库
- 查看当前数据库中key的数量
dbsize

- flushdb 清空当前数据库中所有数据
- flushall 清空所有数据库中的所有数据
操作String类型
- 在某个字符串后追加相应字符,返回字符串追加后的字节长度
append [key] [追加字符] 例:append k1 haha
- 获取某个值的长度
语法:strlen [key]
- 设置某个key,这个key必须是不存在的,设置成功后返回操作key的个数,如果存在则不进行设置,返回0
setnx [key] [value]
- 将对应的key中的value进行增1的操作,value必须为数字类型,返回增1后的结果
incr [key]
- 将对应的key中的value进行减1的操作,value必须为数字类型,返回减1后的结果
decr [key]
- 按照固定步长进行增加
incrby [key] [步长]

- 按照固定步长进行减少
decrby [key] [步长]

- 同时设置多个值
mset [key1] [value1] [key2] [value2] [key3] [value3]

- 同时获取多个值
mget [key1] [key2] [key3]
- 同时设置多个值,但是设置的值必须是不存在的,才能执行成功;只要发现存在相同的key,则整条语句执行不成功(原子性)
msetnx [key1] [value1] [key2] [value2] [key3] [value3]

- 获取指定范围内的值
getrange [key] 开始位置 结束位置

- 设置从指定位置开始之后的值,用新值将老值替换
setrange [key] + 指定位置 + 新值

- 设置新值的同时设置过期时间
setex [key] + 过期时间 + [value]

- 将已经存在的值,设置为新的值,并将旧值返回,当进行get获取值的时候,返回新的值
getset [key] [value]

操作List类型
- 创建list类型类型数据,底层数据结构为双向链表
lpush [KEY] [VALUE1] [VALUE2] [VALUE3] -----从链表左侧压入数据
rpush [KEY] [VALUE1] [VALUE2] [VALUE3] -----从链表右侧压入数据

- 将list中的元素弹出,当list中的元素全部弹出后,相应的KEY也被销毁不存在
lpop [KEY]------从左边弹出一个元素
rpop [KEY]------从右边弹出一个元素

- 将A集合中的右侧元素弹出,插入到集合B的左侧,并返回弹出的元素值
rpoplpush [KEY1] [KEY2]

- 获取集合中的所有元素
lrange [KEY] + 开始位置+ 结束位置-------开始位置为0时,表示左侧第一个元素,结束位置为-1时,表示右侧第一个元素

- 获取指定位置的元素
lindex [KEY] [INDEX]-------INDEX 为指定位置的下标(从左至右)
- 获取指定集合的长度
llen [KEY]

- 在指定值的前面或者后面插入新的值
linsert [KEY] before/after [具体的值] [新插入的值]

- 删除集合中指定个数,指定的元素(从左至右)
lrem [KEY] [具体要删除的个数] [要删除的指定元素]

- 将指定下标的元素设置为新的元素
lset [ KEY] [INDEX] [新的值]

操作set类型
-
set 类型的元素集合为无序、唯一(不重复)的特点
-
添加一个或者多个元素
sadd + [key] +[value1]+[value2]…+[valuen]

- 取出某个集合中的所有元素
smembers +[key]

- 查找某个集合中是否存在某个元素,存在返回个数,不存在返回0
sismember + [key具体的哪个集合]+[是否存在某个value]

- 返回集合中的元素个数
scard + [key]

- 删除某个集合中的一个或多个元素,如果该元素不在这个集合中,则返回0,当集合中的元素全部删除完成时,集合也不存在。
srem + [key指定某个集合]+[指定删除的元素value1]+[指定删除的元素value2]…

- 从集合中随机弹出一个元素
spop + [key]

- 从一个集合中随机取出指定数量的元素
srandmember +[key指定集合]+[count指定元素个数]

- 从一个集合中移动一个元素,到另一个集合中
smove +[源集合]+[目标集合]+[指定移动的元素]

- 取两个集合中的交集
sinter +[key1]+[key2]

- 取两个集合中的并集
sunion +[key1]+[key2]

- 取两个集合中的差集,key1中存在的并且key2中不存在的元素
sdiff+[key1]+[key2]

操作hash类型
- hash数据类型在redis中存在的形式,如下图所示,较为特殊的value值,其中value值中,包括filed和value两部分,一般用于存放对象,例如user对象user:{“id”:“1001”,“name”:“dsl”,“age”:“20”}

- 设置一个hash集合
hset +[key]+[filed]+[value]

- 取出一个hash集合中的一个元素
hget+[key]+[filed]

- 设置一个hash集合中多个属性
hmset +[key]+[filed1]+[value1]+[filed2]+[value2].~~~~~

- 查看一个hash集合中是否存在某个属性,如果存在返回个数,如果不存在返回0
hexisters+[key]+[filed]

- 列出一个hash集合中所有filed值
hkeys +[key]

- 列出一个hash集合中value部分中所有的value值
hvals+[user]

- 使一个hash集合中的一个属性值,增加指定个数
hincrby +[user]+[filed]+[要增加的个数]

- 在一个hash集合中增加一个不存在的属性,如果存在则不增加,返回0,如果不存在则进行新增返回为1
hsetnx +[key]+[filed]+[value]

操作zset类型
-
zset是有序,唯一(不重复)的集合
-
向集合中添加元素
zadd +[key]+[score1]+[value1]+[score2]+[value2]~~~~~~~~score为value值的评分,score和value必须一起设置,后续大多数功能基于score来实现

- 查询集合中指定评分范围中的元素
zrange+[key]+[start]+[end]+withscores~~~~~~~~start和end均为评分范围,当start=0,end=-1时,表示查询全部范围,当添加withscores可以将每个元素的评分一起显示,也可以不写withscores。


- 按照指定分数进行由大到小排序
zrangebyscores +[key]+[start]+[end]+withscores~~~~~~~start和end均为评分范围,当添加withscores可以将每个元素的评分一起显示,也可以不写withscores。

- 按照指定评分范围由大到小排列
zrevrangebyscore+[key]+[max]+[min]+withscores~~~~~~max为最大评分数,min为最小评分数,当添加withscores可以将每个元素的评分一起显示,也可以不写withscores。

- 按照指定步长增加元素评分
zincrby+[key]+[step]+[value]~~~~~~step为指定步长,value为需要增加评分的元素

- 移除集合中指定的元素
zrem+[key]+[value]

- 统计指定集合范围中的元素个数
zcount +[key]+[min]+[max]

- 返回集合中指定元素的排位情况,默认从0开始
zrank+[key]+[value]

操作bitmaps类型
- bitmaps的数据类型,可以简单的理解为只能存储二进制的数组,其中数组下标叫做偏移量,应用场景为活跃用户、打卡等等场景
- 设置一个bitmaps类型的集合
set +[key]+[offset]+[0/1]

- 获取某个偏移量的二进制值
getbit+[key]+[offset]
- 统计字符串被设置为1的bit数,一般情况下,给定的整个字符串都会被进行计数,通过指定的额外的start或end参数,可以让计数只在特定的位上进行,start和end参数的设置,都可以使用负数值:比如-1表示最后一个,而-2表示倒数第二位,start、end是指bit组的字节的下标数,二者皆包含
bitcount+[key]+[start]+[end]~~~~~start和end可以不写,默认查全部

- 复杂操作,bitop是一个复合操作,它可以做多个bitmaps的and(交集)、or(并集)、not(非)、xor(异或)操作并将结果保存在destkey中
bitop +[and/or/xor/not]+[destkey]+[bitmaps结果集1]+[bitmaps结果集2]~~~~~

操作HyperLogLog类型
- HyperLogLog数据类型通常使用于,统计某个页面不同用户的访问次数,在该数据类型中不存在重复元素,不同元素的数量称为“基数”
- 添加元素,可同时添加多个元素,添加成功为1,添加失败为0,当添加的元素重复时,返回为0
pfadd+[key]+[value1]+[value2]~~~~~~
- 查询集合中的基数
pfcount+[key]

- 合并多个集合的结果,存到新的集合中,不存在重复元素
pfmerge +[destkey]+[soutce1]+[source2]~~~~~~~~其中destkey为新的集合,合并后的数据会存到其中

操作Geospatial类型
-
Geospatial数据类型针对的是地理信息的数据,用于保存某个地理位置的经纬度,计算出两地之间的直线距离,还可以根据具体的地理位置和半径,统计出范围内的地理元素,经度范围是-180到180,维度-85.051128780到85.05112878为有效范围,超过此范围会报错。
-
添加地理元素,可以添加多个
geoadd +[key]+[经度]+{纬度}+[该地理位置名称]

- 获取某个地理位置的经纬度信息
geopos +[key]+[member1]+[member2]~~~~~~

- 获取两个位置的直线距离,其中m代表米(默认单位)、km代表千米、mi代表英里、ft代表英尺
geodist+[key]+[member1]+[member2]+[距离单位]


-以给定的经纬度为中心,找出某一个半径内的元素
georadius+[key]+[经度]+{维度]+[半径]+[距离单位]

发布和订阅
- 首先订阅一个频道,subscribe [channel频道名称]
- 第二步推送消息,publish [channel频道名称]+[发送消息的内容]
Jedis应用
- 通过Jedis在Java端操作Redis,具体Jedis各个版本可以通过如下mvn路径下载即可:
https://mvnrepository.com/artifact/redis.clients/jedis
- 前提条件:如果连接Redis需将Redis.conf配置文件进行如下修改:
1.将bind 127.0.0.1注释掉,允许其他机器连接
2.将protected-mode yes由yes修改为no
3.保证防火墙是关闭状态:查看防火墙状态:systemctl status firewalld
将防火墙临时关闭:systemctl stop firewalld
将防火墙永久关闭:systemctl disable firewalld
Redis事务操作
- Redis可以操作事务,其中分为三个阶段:
1.组队阶段,操作命令为multi,可以将多个命令进行组队操作

2.进行执行操作,命令为exec,将组队完成的命令进行执行

3.终止操作,类似回滚,将组队中的命令进行全部终止,不去执行命令

- 特别注意:如果在组队时命令报错,则执行exec时会报错,如果在执行环境报错,其余正确命令正常执行,报错命令执行失败


监控事务中的key值
- 在执行multi之前,先执行watch +[key1] +[key2]…,可以监视一个或多个key,如果在事务执行之前,这个key被其他命令所改动,那么事务将被打断。
Redis事务三大特性
- 单独的隔离性:事务中的所有命令都会序列化,按照顺序进行执行,事务在执行过程中,不会被其他客户端发送的命令请求所打断。
- 没有隔离级别的概念:队列中的命令没有提交之前都不会实际被执行,因为事务的提交前任何指令都不会被执行
- 不保证原子性:事务中如果由一条命令执行失败,其后的命令仍然会被执行,没有回滚。
持久化–RDB
RDB持久化模式:RDB方式的持久化是通过快照(snapshotting)完成的,当符合一定条件时Redis会自 动将内存中的所有数据生成一份副本并存储在硬盘上,这个过程即为“快照”。Redis会在 以下几种情况下对数据进行快照:
- 根据配置规则进行自动快照;
- 用户执行SAVE或BGSAVE命令;
- 执行FLUSHALL命令;
- 执行复制(replication)时。
- 根据配置规则进行自动快照:
Redis允许用户自定义快照条件,当符合快照条件时,Redis会自动执行快照操作。进 行快照的条件可以由用户在配置文件中自定义,由两个参数构成:时间窗口M和改动的键 的个数N。每当时间M内被更改的键的个数大于N时,即符合自动快照条件。例如Redis 安装目录中包含的样例配置文件中预置的3个条件:
save 900 1
save 300 10
save 60 10000
每条快照条件占一行,并且以save参数开头。同时可以存在多个条件,条件之间是 “或”的关系。就这个例子而言,save 900 1的意思是在15分钟(900秒)内有一个或 一个以上的键被更改则进行快照。同理,save 300 10表示在300秒内至少有10个键被 修改则进行快照。
- 用户执行SAVE或BGSAVE命令:
1.SAVE命令
当执行SAVE命令时,Redis同步地进行快照操作,在快照执行的过程中会阻塞所有来 自客户端的请求。当数据库中的数据比较多时,这一过程会导致Redis较长时间不响应, 所以要尽量避免在生产环境中使用这一命令。
2.BGSAVE 命令(Redis默认)
需要手动执行快照时推荐使用BGSAVE命令。BGSAVE命令可以在后台异步地进行快 照操作,快照的同时服务器还可以继续响应来自客户端的请求。执行BGSAVE后Redis会 立即返回0K表示开始执行快照操作,如果想知道快照是否完成,可以通过LASTSAVE命 令获取最近一次成功执行快照的时间,返回结果是一个Unix时间戳,如:
redis> LASTSAVE
(integer) 1423537869
- 执行 FLUSHALL 命令:
当执行FLUSHALL命令时,Redis会清除数据库中的所有数据。需要注意的是,不论 清空数据库的过程是否触发了自动快照条件,只要自动快照条件不为空,Redis就会执行一 次快照操作。例如,当定义的快照条件为当1秒内修改10 000个键时进行自动快照,而当 数据库里只有一个键时,执行FLUSHALL命令也会触发快照,即使这一过程实际上只有一 个键被修改了。
当没有定义自动快照条件时,执行FLUSHALL则不会进行快照。
- 执行复制时:
当设置了主从模式时,Redis会在复制初始化时进行自动快照。即使没有定义自动快照 条件,并且没有手动执行过快照操作,也会生成RDB快照文件。
快照原理
-
Redis默认会将快照文件存储在Redis当前进程的工作目录中的dump.rdb文件中,可以通过配置dir和 dbfilename两个参数分别指定快照文件的存储路径和文件名。快照的过程如下。
(1) Redis使用fork函数复制一份当前进程(父进程)的副本(子进程);
(2) 父进程继续接收并处理客户端发来的命令,而子进程开始将内存中的数据写入硬盘中的临时文件;
(3) 当子进程写入完所有数据后会用该临时文件替换旧的RDB文件,至此一次快照操作完成。 -
在执行fork的时候操作系统(类Unix操作系统)会使用写时复制 (copy-on-write )策略,即fork函数发生的一刻父子进程共享同一内存数据,当父进程要更改其中某片数据时(如执行一个写命令),操作系统会将该片数据复制一份以保证子进程的数据不受影响,所以新的RDB文件存储的是执行fork—刻的内存数据。
-
写时复制策略也保证了在fork的时刻虽然看上去生成了两份内存副本,但实际 上内存的占用量并不会增加一倍.这就意味着当系统内存只有2 GB,而Redis数据库 的内存有1.5 GB时,执行fork后内存使用量并不会增加到3 GB (超出物理内存)。 为此需要确保Linux系统允许应用程序申请超过可用内存(物理内存和交换分区)的可用空间,方法是在/etc/sysct丄.conf 文件加入 vm.overcommit_inemory = 1,然后 重启系统或者执行sysctl vm.overcommit_memory = 1确保设置生效。
另外需要注意的是,当进行快照的过程中,如果写入操作较多,造成fork前后 数据差异较大,是会使得内存使用量显著超过实际数据大小的,因为内存中不仅保存了当前的数据库数据,而且还保存着fork时刻的内存数据。进行内存用量估算时很 容易忽略这一问题,造成内存用量超限。 -
Redis在进行快照的过程中不会修改RDB文件,只有快照结束后才会将旧的文件替换成新的,也就是说任何时候RDB文件都是完整的。这使得我们可 以通过定时备份RDB文件来实现Redis数据库备份。RDB文件是经过压缩(可以配置 rdbcompression参数以禁用压缩节省CPU占用)的二进制格式,所以占用的空间会小于内存中的数据大小,更加利于传输。
Redis启动后会读取RDB快照文件,将数据从硬盘载入到内存。根据数据量大小与结 构和服务器性能不同,这个时间也不同。通常将一个记录1000万个字符串类型键、大小为 1 GB的快照文件载入到内存中需要花费20〜30秒。 -
存在问题:
通过RDB方式实现持久化,一旦Redis异常退出,就会丢失最后一次快照以后更改的 所有数据。这就需要开发者根据具体的应用场合,通过组合设置自动快照条件的方式来将 可能发生的数据损失控制在能够接受的范围。例如,使用Redis存储缓存数据时,丢失最 近几秒的数据或者丢失最近更新的几十个键并不会有很大的影响。如果数据相对重要,希望将损失降到最小,则可以使用AOF方式进行持久化。
持久化–AOF
当使用Redis存储非临时数据时,一般需要打开AOF持久化来降低进程中止导致的数 据丢失。AOF可以将Redis执行的每一条写命令追加到硬盘文件中,这一过程显然会降低 Redis的性能,但是大部分情况下这个影响是可以接受的,另外使用较快的硬盘可以提高 AOF的性能。
开启AOF
默认情况下Redis没有开启AOF(append only file)方式的持久化,可以通过appendonly
参数启用:
appendonly yes
开启AOF持久化后每执行一条会更改Redis中的数据的命令,Redis就会将该命令写 入硬盘中的AOF文件。AOF文件的保存位置和RDB文件的位置相同,都是通过dir参数 设置的,默认的文件名是appendonly.aof,可以通过appendfilename参数修改:
appendfilename appendonly.aof
注意:,在开启AOF和RDB时,Redis会默认使用AOF
AOF的实现与文件重写
- 实现:
AOF文件以纯文本的形式记录了 Redis执行的写命令,例如在开启AOF持久化的情 况下执行了如下4个命令:
SET foo 1
SET foo 2
SET foo 3
GET foo
Redis会将前3条命令写入AOF文件中,此时AOF文件中的内容如下:
*2
$6
SELECT
$1
0
♦3
$3
set
$3
foo
$1
1
*3
$3
set
$3
foo
$1
2
*3
$3
set
$3
foo
$1
3 - AOF文件重写:
从中可见Redis确实只记录了前3条命令。然而这时有一个问题是前2条命令其实都是冗余的, 因为这两条的执行结果会被第三条命令覆盖。随着执行的命令越来越多,AOF文件的大小 也会越来越大,即使内存中实际的数据可能并没有多少。很自然地,我们希望Redis可以 自动优化AOF文件,就上例而言,就是将前两条无用的记录删除,只保留第三条。实际上 Redis也正是这样做的,每当达到一定条件时Redis就会自动重写AOF文件,这个条件可 以在配置文件中设置:
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
auto-aof-rewrite-percentage参数的意义是当目前的AOF文件大小超过上一次 重写时的AOF文件大小的百分之多少时会再次进行重写,如果之前没有重写过,则以启动 时的AOF文件大小为依据。auto-aof-rewrite-min-size参数限制了允许重写的最小 AOF文件大小,通常在AOF文件很小的情况下即使其中有很多冗余的命令我们也并不太关心,除了让Redis自动执行重写外 我们还可以主动使用BGREWRITEAOF命令手动执行AOF 重写。
上例中的AOF文件重写后的内容为:
*2
$6
SELECT
$1
0
*3
$3
SET
$3
foo
$1
RedisTemplate固定模板
import com.fasterxml.jackson.annotation.JsonAutoDetect;
import com.fasterxml.jackson.annotation.PropertyAccessor;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;
@Configuration
public class RedisConfig {
@Bean
@SuppressWarnings("all")
public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
RedisTemplate<String, Object> template = new RedisTemplate<String, Object>();
template.setConnectionFactory(factory);
//Json序列化配置
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
ObjectMapper om = new ObjectMapper();
om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(om);
//String的序列化
StringRedisSerializer stringRedisSerializer = new StringRedisSerializer();
// key采用String的序列化方式
template.setKeySerializer(stringRedisSerializer);
// hash的key也采用String的序列化方式
template.setHashKeySerializer(stringRedisSerializer);
// value序列化方式采用jackson
template.setValueSerializer(jackson2JsonRedisSerializer);
// hash的value序列化方式采用jackson
template.setHashValueSerializer(jackson2JsonRedisSerializer);
template.afterPropertiesSet();
return template;
}
}
Redis应用问题解决
缓存击穿

- 问题描述:
key 对应的数据在数据源并不存在,每次针对此 key 的请求从缓存获取不到,请求都会压到数据源,从而可能压垮数据源。比如用一个不存在的用户 id 获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。
- 特点:
1.应用服务器压力变大;
2.Redis命中率降低;
3.一直在查询数据库;
- 现象:
1.Redis查询不到数据,造成大量未命中;
2.出现很多非正常的URL
- 解决方案
一个一定不存在缓存及查询不到的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。
解决方案:
1.对空值缓存:
如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果( nul )进行缓存,设置空结果的过期时间会很短,最长不超过五分钟。
2.设置可访问的名单(白名单):
使用 bitmaps 类型定义一个可以访问的名单,名单 id 作为 bitmaps 的偏移量,每次访问和 bitmap 里面的 id 进行比较,如果访问 id 不在 bitmaps 里面,进行拦截,不允许访问。
3.采用布隆过滤器:
(布隆过滤器( Bloom Filter )是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。)将所有可能存在的数据哈希到一个足够大的 bitmaps 中,一个一定不存在的数据会被这个 bitmaps 拦截掉,从而避免了对底层存储系统的查询压力。
4.进行实时监控:当发现 Redis 的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黒名单限制服务。
缓存穿透

- 问题描述
key 对应的数据存在,但在 redis 中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端 DB 加载数据井回设到缓存,这个时候大并发的请求可能会瞬间把后端 DB 压垮。
- 现象:
1.数据库访问压力瞬间增大;
2.Redis中没有出现大量的KEY过期;
3.Redis正常运行;
- 特点:
Redis某个key过期了,大量访问使用这个key。(出现场景:热点新闻消息)
- 解决方案
(1)预先设置热门数据:在 redis高峰访问之前,把一些热门数据提前存入到redis 里面,加大这些热门数据key的时长;
(2)实时调整:现场监控哪些数据热门,实时调整 key 的过期时长
(3)使用锁:(1)就是在缓存失效的时候(判断拿出来的值为空),不是立即去 load db 。
(2)先使用缓存工具的某些带成功操作返回值的操作(比比如 Redis 的 SETNX )去set 一个互斥锁(mutex key)
(3)当操作返回成功时,再进行 load db 的操作,并回设缓存,最后删除 mutex
key ;
(4)当操作返回失败,证明有线程在 load db ,当前线程睡眠一段时间再重试整个 get 缓存的方法。
缓存雪崩

- 现象:
数据库压力变大,服务器崩溃;
- 特点:
在极小时间段内,查询大量key的集中过期情况
- 解决方案
1.构建多级缓存架构: ngih ×缓存+ redis 缓存+其他缓存( ehcache 等)
2.使用锁或队列:用加锁或者队列的方式来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况.;
3.设置过期标志更新缓存:记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际 key 的缓存。
4.将缓存失效时间分散开:比如我们可以在原有的失效时间基础上增加一个随机值,比1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。













1099

被折叠的 条评论
为什么被折叠?



