尚硅谷Redis6文档个人笔记

目录

1、NoSQL数据库

1.1 概述

1.2 适用场景

1.3 不适用的场景

1.4 使用 NoSQL 的应用

2、Redis

2.1 Redis 概述

2.1.2 Redis相关知识介绍

2.2 Redis键(key)

2.3 常用数据类型

2.3.1 Redis String 类型

2.3.2 Redis List 列表

2.3.3 Redis 集合 Set

2.3.4 Redis 哈希 Hash

2.3.5 Redis 有序集合 Zset(SorteSet)

2.4 Jedis 操作

2.5 Redis 事务

2.5.1 Redis 事务的定义

2.5.2 Redis 的事务特性

2.5.3 Multi、Exec、discard

2.5.4 事务的错误处理

2.6 Redis 事务冲突

2.6.1 悲观锁

2.6.2 乐观锁

2.6.3 watch 和 unwatch

2.7 Redis 持久化

2.7.1 RDB(Redis DataBase)

2.7.1.1 RDB 是什么

2.7.1.2 备份执行原理

2.7.1.3 Fork

2.7.1.4 RDB 持久化流程

2.7.1.5 dump.rdb 文件

2.7.1.6 优劣势

2.7.1.7 总结

2.7.2 AOF(Append Of File)

2.7.2.1 AOF 是什么

2.7.2.2 AOF 持久化流程

2.7.2.3 AOF 默认不开启

2.7.2.4 AOF 和 RDB 同时开启,Redis 听谁的?

2.7.2.5 AOF 启动/修复/恢复

2.7.2.6 AOF 同步频率设置

2.7.2.7 Rewrite 压缩

2.7.2.8 优劣势

2.7.2.9 总结

2.7.3 总结(该选用 RDB 还是 AOF)

2.8 Redis 主从复制

2.8.1 定义

2.8.2 常用命令

2.8.3 薪火相传

2.8.4 反客为主

2.8.5 复制原理

2.8.6 哨兵模式

2.9 集群

2.9.1 问题引入

2.9.2 定义

2.9.3 常用命令

2.9.4 slots 插槽

2.9.5 故障恢复

2.9.6 优缺点

3、Redis 应用问题解决

3.1 缓存穿透

3.1.1 发生现象

3.1.2 解决方案

3.2 缓存击穿

3.2.1 发生现象

3.2.2 解决方案

3.3 缓存雪崩

3.3.1 发生现象

3.3.2 解决方案

3.4 分布式锁

3.4.1 问题描述

3.4.2 解决方案:使用 Redis 实现分布式锁

3.4.3 优化之设置锁的过期时间

3.4.4 优化之 UUID 防止误删

3.4.5 优化之Lua 保证删除原子性

3.4.6 总结

1、NoSQL数据库

1.1 概述

NoSQL(Not Only SQL)不仅仅是SQL,泛指非关系型数据库

目的是提升性能,直接内存读取,不依赖业务逻辑存储,而是以简单的 key - value 方式存储

  • 不遵循 SQL 标准

  • 不支持 ACID

  • 远超于 SQL 的性能

1.2 适用场景

  • 对数据高并发的读写

  • 海量数据的读写

  • 对数据高可扩展性的

1.3 不适用的场景

  • 需要事务支持

  • 基于 SQL 结构化查询存储,处理复杂的关系

  • 用不着 SQL 和用了 SQL 也不行的情况,请考虑 NoSQL

1.4 使用 NoSQL 的应用

Memcache(早期)、Redis、MongoDB

2、Redis

2.1 Redis 概述

  • 开源的 key - value 存储

  • 支持更多的 value 类型,包括 string、list、set、zset 和 hash

  • 数据支持 push/pop、add/remove 及取交集并集和差集及更丰富的操作,且这些操作都是原子性

  • Redis 支持不同方式的排序

  • 数据缓存在内存

  • Redis 会周期性的把更新的数据写入磁盘

  • 并且实现了 master - slave(主从)同步

2.1.2 Redis相关知识介绍
  • Redis 默认16 个数据库,类似数组从下标 0 开始,初始默认使用 0 号库

  • 使用 select dbid 命令来切换数据库,如:select 8

  • 所有库使用统一的密码

  • dbsize 查看当前数据库的 key 的数量

  • flushdb 清空当前库

  • flushall 通杀全部库

Redis 是单线程 + 多路 IO 复用技术

2.2 Redis键(key)

一些关于 key 的命令操作

  • key * 查看当前库所有 key

  • exists key 判断某个 key 是否存在

  • type key 查看 key 的类型

  • del key 删除指定的 key 数据

  • unlink key 根据 value 选择非阻塞删除,仅将 keys 从 keyspace 元数据中删除,真正的删除在后续异步操作

  • expire key 10 10秒钟:为指定的 key 设置过期的时间,单位:秒

  • ttl key 查看还有多少秒过期,-1 表示永不过期,-2 表示已过期

2.3 常用数据类型

2.3.1 Redis String 类型

常用命令:

  • set <key> <value> 添加键值对

  • get <key> 查询对应的键值

  • append <key> <value> 将给定的 <value> 追加到原值的末尾

  • strlen <key> 获取值的长度

  • setnx <key> <value> 只有在 key 不存在时,才能设置 key 的值,否则设置失败

  • incr <key> 将 key 中存储的数字加 1,只能对数字值操作,如果为空,新增值为 1

  • decr <key> 将 key 中存储的数字减 1,只能对数字值操作,如果为空,新增值为 -1

  • incrby / decrby <key> <步长> 将 key 中存储的数字值增减。自定义步长

    incr / decr / incrby / decrby 都是原子性操作

  • mset <key1> <value1> <key2> <value2> <key3> <value3> ...... 同时设置一个或多个键值对

  • mget <key1> <key2> <key3> ...... 同时获取一个或多个键值对

  • msetnx <key1> <value1> <key2> <value2>...... 同时设置一个或多个键值对,当且仅当所有 key 都不存在,该操作具有原子性,有一个 key 存在则全都不能设置成功

  • getrange <key> <起始位置> <结束位置> 获取值的范围,类似 Java 中的 substring,双闭

  • setrange <key> <起始位置> <value> 用 value 覆写 key 所存储的字符串值,从 <起始位置> 开始

  • setex <key> <过期时间> <value> 设置键值的同时,设置过期时间,单位秒

  • getset <key> <value> 以新换旧,设置新值的同时获取旧值

数据结构:

Redis string 数据类型底层数据结构为简单动态字符串,内部结构类似于 Java 中的 ArrayList

如图中所示,内部为当前字符串实际分配的空间 capacity 一般要高于实际字符串长度len。

当字符串长度小于 1M时,扩容都是加倍现有的空间,如果超过 1M,扩容时一次只会多扩 1M的空间。

需要注意的是字符串最大长度为 512M。

2.3.2 Redis List 列表

最大特点:单键多值

Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。 它的底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差。

常用命令:

  • lpush / rpush <key><value1><value2> <value3>.... 从左边 / 右边插入一个或多个值(类似栈的形式压入一个值,如从左边压入,则后边的值需要向后平移)

  • lpop / rpop <key>从左边/右边吐出一个值。值在键在,值光键亡

  • rpoplpush <key1><key2> 从 <key1> 列表右边吐出一个值,插到 <key2> 列表左边。

  • lrange <key><start> <stop> 按照索引下标获得元素(从左到有),特别的:lrange mylist 0 -1 表示的是获取所有,其中 0 左边表示第一个,-1 表示右边第一个

  • lindex <key><index> 按照索引下标获得元素(从左到有)

  • llen <key>获得列表长度

  • linsert <key> before <value><newvalue>在 <value> 的后面插入 <newvalue> 插入值

  • lrem <key><n><value>从左边删除 n 个 value (从左到右)

  • lset <key><index><value> 将列表 key 下标为 index 的值替换为 value

数据结构:

List 的数据结构为快速链表 quickList

首先在列表元素较少的情况下会使用一块连续的内存存储,这个结构是 ziplist,也即是压缩列表

它将所有的元素紧挨着一起存储,分配的是一块连续的内存。“当数据量比较多的时候才会改成 quicklist

因为普通的链表需要的附加指针空间太大,会比较浪费空间

比如这个列表里存的只是int类型的数据,结构上还需要两个额外的指针 prev 和 next。“

Redis 将链表和 ziplist 结合起来组成了 quicklist,也就是将多个 ziplist 使用双向指针串起来使用,这样既满足了快速的插入删除性能,又不会出现太大的空间冗余。

2.3.3 Redis 集合 Set

Redis set 对外提供的功能与 list 类似是一个列表的功能,特殊之处在于 set 是可以自动排重的,当你需要存储一个列表数据,又不希望出现重复数据时,set 是一个很好的选择,并且 set 提供了判断某个成员是否在一个 set 集合内的重要接口,这个也是 list所不能提供的。

Redis 的 Set 是 string 类型的无序集合。它底层其实是一个 value 为 null 的 hash 表,所以添加,删除,查找的复杂度都是 0(1)

一个算法,随着数据的增加,执行时间的长短,如果是 0(1),数据增加,查找数据的时间不变

常用命令:

  • sadd <key><value1> <value2> ..... 将一个或多个 member 元素加入到集合 key 中,已经存在的 member 元素将被忽略(加入的形式依旧是栈和 list 一样)

  • smembers <key> 取出该集合的所有值

  • sismember <key><value> 判断集合 <key> 是否为含有该 <value> 值,有 1,没有 0

  • scard <key> 返回该集合的元素个数

  • srem <key><value1> <value2> .... 删除集合中的某个元素

  • spop <key> 随机从该集合中吐出一个值

  • srandmember <key><n> 随机从该集合中取出 n 个值,不会从集合中删除

  • smove <source><destination><value> 把集合中一个值从一个集合移动到另一个集合

  • sinter <key1><key2> 返回两个集合的交集元素

  • sunion <key1><key2> 返回两个集合的并集元素

  • sdiff <key1><key2> 返回两个集合的差集元素 ( key1 中的,不包含 key2 中的)

数据结构:

Set 数据结构是 dict 字典,字典是用哈希表实现的

Java 中 HashSet 的内部实现使用的是 HashMap,只不过所有的 value 都指向同一个对象

Redis 的 set 结构也是一样,它的内部也使用 hash 结构,所有的 value 都指向同一个内部值

2.3.4 Redis 哈希 Hash

Redis Hash 是一个键值对集合

Redis Hash 是一个 string 类型的 field 和 value 的映射表,Hash 特别适合用于存储对象,类似 Java 里面的Map<String,Object>

用户 ID 为查找的 key,存储的 value 用户对象包含姓名,年龄,生日等信息,如果用普通的 key / value结构来存储主要有以下2种存储方式:

如果使用 Hash 结构:

常用命令:

  • hset <key><field><value> 给 <key> 集合中的 <field> 键赋值 <value>

  • hget <key1><field> 从 <key1> 集合 <field> 取出 value

  • hmset <key1><field1><value1><field2><value2>... 批量设置 hash 的值

  • hexists <key1><field> 查看哈希表 key 中,给定域 field 是否存在

  • hkeys <key> 列出该 hash 集合的所有 fielduhvals <kev> 列出该 hash 集合的所有 value

  • hincrby <key><field><increment> 为哈希表 key 中的域 field 的值加上增量 1 -1

  • hsetnx <key><field><value> 将哈希表 key 中的域 field 的值设置为 value,当且仅当域 field 不存在

数据结构:

Hash 类型对应的数据结构是两种:ziplist (压缩列表),hashtable (哈希表)。当 field-value 长度较短且个数较少时,便用 ziplist,否则使用 hashtable

2.3.5 Redis 有序集合 Zset(SorteSet)

Redis 有序集合 Zset 与普通集合 set 非常相似,是一个没有重复元素的字符串集合。

不同之处是有序集合的每个成员都关联了一个评分 ( score ),这个评分 ( score ) 被用来按照从最低分到最高分的方式排序集合中的成员。

集合的成员是唯一的,但是评分可以是重复了。

因为元素是有序的,所以你也可以很快的根据评分 ( score ) 或者次序 ( position ) 来获取一个范围的元素。

访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表。

常用命令:

  • zadd <key><score1><value1><score2><value2> 将一个或多个 member 元素及其 score 值加入到有序集 key 当中

  • zrange <key><start><stop> [WITHSCORES] 返回有序集 key 中下标在 <start><stop> 之间的元素,带 WITHSCORES 可以让分数一起和值返回到结果集。

  • zrangebyscore <key><min><max> [withscores] [limit offset count] 返回有序集 key 中,所有 score 值介于 min 和 max 之间,包括等于 min 或 max的成员有序集成员按 score 值递增(从小到大)次序排列

  • zrevrangebyscore <key><max><min> [withscores] [limit offset count] 同上,改为从大到小排列。

  • zincrby <key><increment><value> 为元素的 score 加上增量 increment

  • zrem <key><value> 删除该集合下,指定值的元素

  • zcount <key><min><max> 统计计该集合,分数区间内的元素个数

  • zrank <key><value> 返回该值在集合中的排名,从0开始

数据结构:

SortedSet(zset) 是非常特别的数据结构,一方面它等价于 Java 的数据结构 Map<String,Double>,可以给每一个元素 value 赋予一个权重 score,另一方面它又类似于 TreeSet,内部的元素会按照权重 score 进行排序,可以得到每个元素的名次,还可以通过 score 的范围来获取元素的列表。

zset 底层使用了两个数据结构:

  1. hash,hash 的作用就是关联元素 value 和权重 score,保障元素 value 的唯一性,可以通过元素 value 找到相应的 score 值

  2. 跳跃表,跳跃表的目的在于给元素 value 排序,根据 score 的范围获取元素列表

跳跃表:

  1. 简介

有序集合在生活中比较常见,例如根据成绩对学生排名,根据得分对玩家排名等。对于有序集合的底层实现,可以用数组、平衡树、链表等。数组不便元素的插入删除,平衡树或红黑树虽然效率高但结构复杂,链表查询需要遍历所有效率低。Redis 采用的是跳跃表。跳跃表效率堪比红黑树,实现远比红黑树简单。

  1. 实例

    对比有序链表和跳跃链表,从链表中查询出 51

    (1)有序链表

要查找值为 51 的元素,需要从第一个元素开始依次查找、比较才能找到。共需要 6 次比较。

(2)跳跃表

从第 2 层开始,1 节点比 51 节点小,向后比较

21 节点比 51 节点小,继续后比较,后面就是NULL了,所以从 21 节点向下到第1层在第1层,41 节点比51节点小,继续向后,61 节点比 51节点大,所以从41向下。

在第 0层,51 节点为要查找的节点,节点被找到,共查找 4 次。

2.4 Jedis 操作

Jedis 就是用 Java 语言操作 Redis,以下展示 Jedis 的一些常规操作 API

  1. Jedis-API Key

    jedis.set("k1", "v1");
    jedis.set("k2", "v2");
    jedis.set("k3", "v3");
    Set<String> keys = jedis.keys("*");
    System.out.println(keys.size());
    for (String key : keys) {
        System.out.println(key);
    }
    System.out.println(jedis.exists("k1"));
    System.out.println(jedis.ttl("k1"));                
    System.out.println(jedis.get("k1"));

  2. Jedis-API String

    jedis.mset("str1","v1","str2","v2","str3","v3");
    System.out.println(jedis.mget("str1","str2","str3"));

  3. Jedis-API List

    List<String> list = jedis.lrange("mylist",0,-1);
    for (String element : list) {
        System.out.println(element);
    }

  4. Jedis-API Set

    jedis.sadd("orders", "order01");
    jedis.sadd("orders", "order02");
    jedis.sadd("orders", "order03");
    jedis.sadd("orders", "order04");
    Set<String> smembers = jedis.smembers("orders");
    for (String order : smembers) {
        System.out.println(order);
    }
    jedis.srem("orders", "order02");

  5. Jedis-API Hash

    jedis.hset("hash1","userName","lisi");
    System.out.println(jedis.hget("hash1","userName"));
    Map<String,String> map = new HashMap<String,String>();
    map.put("telphone","13810169999");
    map.put("address","atguigu");
    map.put("email","abc@163.com");
    jedis.hmset("hash2",map);
    List<String> result = jedis.hmget("hash2", "telphone","email");
    for (String element : result) {
        System.out.println(element);
    }

  6. Jedis-API Zset

    jedis.zadd("zset01", 100d, "z3");
    jedis.zadd("zset01", 90d, "l4");
    jedis.zadd("zset01", 80d, "w5");
    jedis.zadd("zset01", 70d, "z6");
     
    Set<String> zrange = jedis.zrange("zset01", 0, -1);
    for (String e : zrange) {
        System.out.println(e);
    }

不难看出来 Jedis 的一些操作命令就是 Redis 的一些原命令

2.5 Redis 事务

2.5.1 Redis 事务的定义

Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

Redis事务的主要作用就是串联多个命令防止别的命令插队。

2.5.2 Redis 的事务特性
  1. 单独的隔离操作

    事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

  2. 没有隔离级别的概念

    队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行

  3. 不保证原子性

    事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚

2.5.3 Multi、Exec、discard

从输入 Multi 命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输入 Exec 后,Redis 会将之前的命令队列中的命令依次执行。

组队的过程中可以通过 discard 来放弃组队。

*案例:*

组队成功,提交成功
组队阶段报错,提交失败
组队成功,提交有成功有失败情况

2.5.4 事务的错误处理
  • 组队阶段某个命令出现了报告错误,执行时整个的所有队列都会被取消。

  • 执行阶段某个命令报出了错误,则只有报错的命令不会被执行而其他的命令都会执行,不会回滚。

2.6 Redis 事务冲突

例子

一个请求想给金额减8000

一个请求想给金额减5000

一个请求想给金额减1000

2.6.1 悲观锁

*悲观锁(Pessimistic Lock)*, 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。*传统的关系型数据库里边就用到了很多这种锁机制*,比如*行锁**表锁*等,*读锁**写锁*等,都是在做操作之前先上锁。

2.6.2 乐观锁

*乐观锁(Optimistic Lock)*, 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。*乐观锁适用于多读的应用类型,这样可以提高吞吐量*Redis 就是利用这种 check-and-set 机制实现事务的。

2.6.3 watch 和 unwatch
  1. watch

    在执行 multi之前,先执行 watch key1 [key2], 可以监视一个(或多个) key ,如果在事务*执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。*

  2. unwatch

    取消 WATCH 命令对所有 key 的监视。如果在执行 WATCH 命令之后,EXEC 命令或 DISCARD 命令先被执行了的话,那么就不需要再执行 UNWATCH 了。

2.7 Redis 持久化

Redis 提供了两种不同的持久化操作:

  1. RDB(Redis DataBase)

  2. AOF(Append Of File)

2.7.1 RDB(Redis DataBase)
2.7.1.1 RDB 是什么

在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的 Snapshot 快照,它恢复时是将快照文件直接读到内存里

2.7.1.2 备份执行原理

Redis 会单独创建(fork)一个子进程来进行持久化,会先将数据写入到 一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。 整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。

*RDB的缺点是*最后一次持久化后的数据可能丢失*。

2.7.1.3 Fork
  • Fork的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等) 数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程

  • 在Linux程序中,fork() 会产生一个和父进程完全相同的子进程,但子进程在此后多会 exec 系统调用,出于效率考虑,Linux中引入了*写时复制技术*

  • 一般情况父进程和子进程会共用同一段物理内存,只有进程空间的各段的内容要发生变化时,才会将父进程的内容复制一份给子进程。

2.7.1.4 RDB 持久化流程

2.7.1.5 dump.rdb 文件

在 redis.conf 中配置文件名称,默认为 dump.rdb

rdb文件的保存路径,也可以修改。默认为Redis启动时命令行所在的目录下

2.7.1.6 优劣势
  • 优势

    • 适合大规模的数据恢复

    • 对数据完整性和一致性要求不高更适合使用

    • 节省磁盘空间

    • 恢复速度快

  • 劣势

    • Fork 的时候,内存中的数据被克隆了一份,大致 2 倍的膨胀性需要考虑

    • 虽然Redis在fork时使用了*写时拷贝技术*,但是如果数据庞大时还是比较消耗性能。

    • 在备份周期在一定间隔时间做一次备份,所以如果 Redis 意外 down 掉的话,就会丢失最后一次快照后的所有修改。

2.7.1.7 总结

2.7.2 AOF(Append Of File)
2.7.2.1 AOF 是什么

日志的形式来记录每个写操作(增量保存),将 Redis 执行过的所有写指令记录下来(读操作不记录), 只许追加文件但不可以改写文件,redis 启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作

2.7.2.2 AOF 持久化流程

(1)客户端的请求写命令会被 append 追加到 AOF 缓冲区内;

(2)AOF 缓冲区根据 AOF 持久化策略 [always,everysec,no] 将操作 sync 同步到磁盘的 AOF 文件中;

(3)AOF 文件大小超过重写策略或手动重写时,会对 AOF 文件 rewrite 重写,压缩 AOF 文件容量;

(4)Redis 服务重启时,会重新 load 加载 AOF 文件中的写操作达到数据恢复的目的;

2.7.2.3 AOF 默认不开启

可以在 redis.conf 中配置文件名称,默认为 appendonly.aof。AOF 文件的保存路径,同 RDB 的路径一致。

2.7.2.4 AOF 和 RDB 同时开启,Redis 听谁的?

AOF和RDB同时开启,系统默认取AOF的数据(数据不会存在丢失)

2.7.2.5 AOF 启动/修复/恢复
  • AOF 的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样,都是拷贝备份文件,需要恢复时再拷贝到Redis工作目录下,启动系统即加载。

  • 正常恢复

    • 修改默认的 appendonly no(Redis 配置文件中),改为appendonly yes

    • 将有数据的 aof 文件复制一份保存到对应目录(查看目录:config get dir)

    • 恢复:重启 redis 然后重新加载

  • 异常恢复

    • 修改默认的 appendonly no,改为appendonly yes

    • 如遇到AOF文件损坏,通过 /usr/local/bin/redis-check-aof--fix appendonly.aof进行恢复

    • 备份被写坏的AOF文件

    • 恢复:重启redis,然后重新加载

2.7.2.6 AOF 同步频率设置
  • appendfsync always

始终同步,每次Redis的写入都会立刻记入日志;性能较差但数据完整性比较好

  • appendfsync everysec

每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失。

  • appendfsync no

redis不主动进行同步,把同步时机交给操作系统。

2.7.2.7 Rewrite 压缩

简而言之就是压缩命令。

如:原命令是 set k1 v1;set k2 v2;-------------> 压缩后命令:set k1 v1 k2 v2

2.7.2.8 优劣势
  • 优势

    • 备份机制更稳健,丢失数据概率更低。

    • 可读的日志文本,通过操作 AOF 稳健,可以处理误操作。

  • 劣势

    • 比起 RDB 占用更多的磁盘空间。

    • 恢复备份速度要慢。

    • 每次读写都同步的话,有一定的性能压力。

    • 存在个别 Bug,造成恢复不能。

2.7.2.9 总结

2.7.3 总结(该选用 RDB 还是 AOF)

官方推荐两个都启用。

如果对数据不敏感,可以选单独用RDB。

不建议单独用 AOF,因为可能会出现Bug。

如果只是做纯内存缓存,可以都不用。

2.8 Redis 主从复制

2.8.1 定义

主机数据更新后根据配置和策略, 自动同步到备机的 master(主)/slaver(从)机制,Master 以写为主,Slave 以读为主

  • 优点

    • 读写分离,性能扩展

    • 容灾快速恢复

2.8.2 常用命令

saveof <ip> <port> 配置从服务器

info replication 查看服务器主从信息

2.8.3 薪火相传

大概描述:当一个主机控制两台从机时尚不会出错,一旦从机过多,主机便会容易照顾不来,所以主机从从机里边选择”小组组长“,再让”小组组长“控制从机,这样主机直接控制小组组长,小组组长再控制下边的从机。

上一个 Slave 可以是下一个 slave 的 Master,Slave 同样可以接收其他 slaves 的连接和同步请求,那么该 slave 作为了链条中下一个的 master, 可以有效减轻 master 的写压力,去中心化降低风险。

在此模式下

  • 一旦从机宕机 down 掉,重新启动后,失去与主机的连接并变成新的主机 master(会忘主并成为新主)

  • 一旦主机宕机 down 掉,重新启动后,不会丢失与从机的连接,启动后仍然是从机的主机

slaveof <ip> <port>

中途变更转向: 会清除之前的数据,重新建立拷贝最新的

风险是一旦某个slave宕机,后面的 slave 都没法备份

主机挂了,从机还是从机,无法写数据了

2.8.4 反客为主

当一个 master 宕机后,后面的 slave 可以立刻升为 master,其后面的 slave 不用做任何修改。

slaveof no one 将从机变为主机

2.8.5 复制原理

个人理解:

当主从机第一次连接时,是从机首先发出请求命令,然后主机接收到命令后将文件传给从机,完成第一次的连接,而从今往后的每次连接,都是主机发出请求,从机接收请求并完成数据同步。

尚硅谷文件:

  • Slave 启动成功连接到 master 后会发送一个 sync 命令

  • Master 接到命令启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令, 在后台进程执行完毕之后,master 将传送整个数据文件到 slave, 以完成一次完全同步

  • 全量复制:而 slave 服务在接收到数据库文件数据后,将其存盘并加载到内存中。

  • 增量复制:Master 继续将新的所有收集到的修改命令依次传给 slave ,完成同步

  • 但是只要是重新连接 master, 一次完全同步(全量复制)将被自动执行

2.8.6 哨兵模式

反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库

当哨兵服务器监视到主机宕机,那么哨兵服务器会根据策略从从机里边选择出一个作为新主机,若旧主机恢复后,会成为新主机的从机,其余从机也会成为新主机的从机

选择从机的策略如上图所示,以下为上图策略部分解释:

  • 优先级在 redis.conf 中默认:slave-priority 100,值越小优先级越高

  • 偏移量是指获得原主机数据最全的

  • 每个redis实例启动后都会随机生成一个40位的runid

Jedis 启动哨兵模式

private static JedisSentinelPool jedisSentinelPool=null;
​
public static  Jedis getJedisFromSentinel(){
    if(jedisSentinelPool==null){
        Set<String> sentinelSet=new HashSet<>();
        sentinelSet.add("192.168.11.103:26379");
​
        JedisPoolConfig jedisPoolConfig =new JedisPoolConfig();
        jedisPoolConfig.setMaxTotal(10); //最大可用连接数
        jedisPoolConfig.setMaxIdle(5); //最大闲置连接数
        jedisPoolConfig.setMinIdle(5); //最小闲置连接数
        jedisPoolConfig.setBlockWhenExhausted(true); //连接耗尽是否等待
        jedisPoolConfig.setMaxWaitMillis(2000); //等待时间
        jedisPoolConfig.setTestOnBorrow(true); //取连接的时候进行一下测试 ping pong
​
        jedisSentinelPool=new JedisSentinelPool("mymaster",sentinelSet,jedisPoolConfig);
        return jedisSentinelPool.getResource();
     } else {
            return jedisSentinelPool.getResource();
     }
}

2.9 集群

2.9.1 问题引入

容量不够,redis如何进行扩容?

并发写操作, redis如何分摊?

另外,主从模式,薪火相传模式,主机宕机,导致ip地址发生变化,应用程序中配置需要修改对应的主机地址、端口等信息。

之前通过代理主机来解决,但是redis3.0中提供了解决方案。就是无中心化集群配置

代理主机

无中心化集群配置

2.9.2 定义

Redis 集群实现了对 Redis 的水平扩容,即启动 N 个 redis 节点,将整个数据库分布存储在这 N 个节点中,每个节点存储总数据的 1/N。

Redis 集群通过分区(partition)来提供一定程度的可用性(availability): 即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求。

2.9.3 常用命令

cluster nodes 查看集群消息

cluster keyslot cust

2.9.4 slots 插槽

栗子:

一个 Redis 集群包含 16384 个插槽(hash slot), 数据库中的每个键都属于这 16384 个插槽的其中一个,

集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和 。(说白了就是一种数学计算方法)

集群中的每个节点负责处理一部分插槽。 举个例子, 如果一个集群可以有主节点, 其中:

节点 A 负责处理 0 号至 5460 号插槽。

节点 B 负责处理 5461 号至 10922 号插槽。

节点 C 负责处理 10923 号至 16383 号插槽。

2.9.5 故障恢复

如果主节点下线?从节点能否自动升为主节点?从节点自动升为主节点(类似哨兵模式下)

主节点恢复后,主从关系会如何?主节点回来变成从机。

如果所有某一段插槽的主从节点都宕掉,redis服务是否还能继续?

如果某一段插槽的主从都挂掉,而 cluster-require-full-coverage 为 yes ,那么 ,整个集群都挂掉

如果某一段插槽的主从都挂掉,而 cluster-require-full-coverage 为 no ,那么,该插槽数据全都不能使用,也无法存储。

redis.conf中的参数 cluster-require-full-coverage

2.9.6 优缺点
  • 优点

    • 实现扩容

    • 分摊压力

    • 无中心配置相对简单

  • 缺点

    • 多键操作是不被支持的

    • 多键的 Redis 事务是不被支持的。Lua 脚本不被支持

    • 由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至redis cluster,需要整体迁移而不是逐步过渡,复杂度较大。

3、Redis 应用问题解决

3.1 缓存穿透

3.1.1 发生现象

现象:

  • 应用服务器压力变大

  • redis 命中率下降

  • 一直查询数据库

可能发生该现象的原因:

  • redis 查询不到数据库

  • 出现很多非正常 url 访问

key 对应的数据在数据源并不存在,每次针对此 key 的请求从缓存获取不到

请求都会压到数据源,从而可能压垮数据源

比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。

3.1.2 解决方案

一个一定不存在缓存及查询不到的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。

解决方案:

(1) 对空值缓存:如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟

(2) 设置可访问的名单(白名单):

使用 bitmaps 类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和 bitmap 里面的 id 进行比较,如果访问 id 不在 bitmaps 里面,进行拦截,不允许访问。

(3) 采用布隆过滤器:(布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。

布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。

将所有可能存在的数据哈希到一个足够大的 bitmaps 中,一个一定不存在的数据会被 这个 bitmaps 拦截掉,从而避免了对底层存储系统的查询压力。

*常用*(4) 进行实时监控:当发现 Redis 的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务

3.2 缓存击穿

3.2.1 发生现象

现象:

  • 数据库访问压力瞬间增大

  • redis 中没有大量的 key 失效

  • redis 正常运行

可能发生该现象的原因:

  • redis 中某个 key 过期了,大量访问使用这个 key

key 对应的数据存在,但在 redis 中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB 加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端 DB 压垮。

3.2.2 解决方案

key 可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题。

解决问题:

  1. 预先设置热门数据:在redis高峰访问之前,把一些热门数据提前存入到 redis 里面,加大这些热门数据 key 的时长

  2. 实时调整:现场监控哪些数据热门,实时调整 key 的过期时长

  3. 使用锁:

    1. 就是在缓存失效的时候(判断拿出来的值为空),不是立即去 load db。

    2. 先使用缓存工具的某些带成功操作返回值的操作(比如 Redis 的 SETNX)去 set 一个 mutex key

    3. 当操作返回成功时,再进行 load db 的操作,并回设缓存,最后删除 mutex key;

    4. 当操作返回失败,证明有线程在 load db,当前线程睡眠一段时间再重试整个 get 缓存的方法。

3.3 缓存雪崩

3.3.1 发生现象

现象:

  • 数据库访问压力变大,服务器崩溃

可能发生该现象的原因:

  • 在极少的时间段,大量 key 的集中过期

key 对应的数据存在,但在 redis 中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB 加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端 DB 压垮。

缓存雪崩与缓存击穿的区别在于雪崩针对很多 key 缓存,击穿则是某一个 key

3.3.2 解决方案

缓存失效时的雪崩效应对底层系统的冲击非常可怕!

解决方案:

(1) 构建多级缓存架构:nginx 缓存 + redis 缓存 + 其他缓存(ehcache等)

(2) 使用锁或队列:用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况

(3) 设置过期标志更新缓存:记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存。

(4) 将缓存失效时间分散开:比如我们可以在原有的失效时间基础上增加一个随机值,比如 1-5 分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

3.4 分布式锁

3.4.1 问题描述

随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的 Java API 并不能提供分布式锁的能力。为了解决这个问题就需要一种跨 JVM 的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题!

分布式锁主流的实现方案:

  1. 基于数据库实现分布式锁

  2. 基于缓存(Redis等)

  3. 基于Zookeeper

每一种分布式锁解决方案都有各自的优缺点:

  1. 性能:redis最高

  2. 可靠性:zookeeper最高

这里,我们就基于redis实现分布式锁。

3.4.2 解决方案:使用 Redis 实现分布式锁

redis:命令

set k1 v1 NX PX 10000 为 k1 设置分布式锁,并同时设置过期时间 10000ms

del k1 释放 k1 的锁

EX second :设置键的过期时间为 second 秒。 SET key value EX second效果等同于 SETEX key second value

PX millisecond :设置键的过期时间为 millisecond 毫秒。 SET key value PX millisecond 效果等同于 PSETEX key millisecond value

NX :只在键不存在时,才对键进行设置操作。 SET key value NX 效果等同于 SETNX key value

XX :只在键已经存在时,才对键进行设置操作。

3.4.3 优化之设置锁的过期时间

设置过期时间有两种方式:

  1. 首先想到通过expire设置过期时间(缺乏原子性:如果在setnx和expire之间出现异常,锁也无法释放)

  2. 在set时指定过期时间(具体命令操作见 3.4.2 推荐)

3.4.4 优化之 UUID 防止误删

问题描述

  1. 有 a、b、c 三个进程去操作同一数据

  2. A 拿到资格先上锁,并进行相关操作,但是在操作途中服务器宕机,锁过了 10s 自动释放

  3. 这时 B 拿到资格上锁,进行相关操作

  4. 在 B 操作期间,A 的服务器恢复正常,继续完成因为宕机而没有完成的操作,最终释放锁

  5. 但是此时 A 释放的锁是 B 正在使用的锁,那么就会出现异常

解决办法:使用 UUID 防误删

  1. UUID 表示不同的操作 set lock uuid nx ex 10

  2. 释放锁的时候,判断当前 UUID 和要释放锁的 UUID 是否一致

3.4.5 优化之Lua 保证删除原子性

通过 UUID 优化防误删后,仍然存在一些问题:

问题描述:

  1. A 抢到资源并上锁进行相关操作

  2. 操作结束,比较 UUID 是否一致,一致,准备进行删除锁操作(还未进行删除

  3. 但是此时刚好到了锁的自动释放时间,锁被释放

  4. B 抢到了锁,立即进行相关操作

  5. A 要继续完成删除锁的操作,此时 A 删除的是 B 的锁!出现异常

解决办法:使用 Lua 脚本进行原子性操作

Spring Boot 整合 Redis 实现代码部分:

@GetMapping("testLockLua")
public void testLockLua() {
    //1 声明一个uuid ,将做为一个value 放入我们的key所对应的值中
    String uuid = UUID.randomUUID().toString();
    //2 定义一个锁:lua 脚本可以使用同一把锁,来实现删除!
    String skuId = "25"; // 访问skuId 为25号的商品 100008348542
    String locKey = "lock:" + skuId; // 锁住的是每个商品的数据
​
    // 3 获取锁
    Boolean lock = redisTemplate.opsForValue().setIfAbsent(locKey, uuid, 3, TimeUnit.SECONDS);
​
    // 第一种: lock 与过期时间中间不写任何的代码。
    // redisTemplate.expire("lock",10, TimeUnit.SECONDS);//设置过期时间
    // 如果true
    if (lock) {
        // 执行的业务逻辑开始
        // 获取缓存中的num 数据
        Object value = redisTemplate.opsForValue().get("num");
        // 如果是空直接返回
        if (StringUtils.isEmpty(value)) {
            return;
        }
        // 不是空 如果说在这出现了异常! 那么delete 就删除失败! 也就是说锁永远存在!
        int num = Integer.parseInt(value + "");
        // 使num 每次+1 放入缓存
        redisTemplate.opsForValue().set("num", String.valueOf(++num));
        /*使用lua脚本来锁*/
        // 定义lua 脚本
        String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
        // 使用redis执行lua执行
        DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
        redisScript.setScriptText(script);
        // 设置一下返回值类型 为Long
        // 因为删除判断的时候,返回的0,给其封装为数据类型。如果不封装那么默认返回String 类型,
        // 那么返回字符串与0 会有发生错误。
        redisScript.setResultType(Long.class);
        // 第一个要是script 脚本 ,第二个需要判断的key,第三个就是key所对应的值。
        redisTemplate.execute(redisScript, Arrays.asList(locKey), uuid);
    } else {
        // 其他线程等待
        try {
            // 睡眠
            Thread.sleep(1000);
            // 睡醒了之后,调用方法。
            testLockLua();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

3.4.6 总结

为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件

- 互斥性。在任意时刻,只有一个客户端能持有锁。

- 不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁。

- 解铃还须系铃人。加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了。

- 加锁和解锁必须具有原子性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值