Redis[狂]
写于2021.11.20
视频地址 狂神说Redis
原文地址
学习方式:不是为了面试和工作学习
1. NoSQL概述
为什么要用NoSQL?
大数据一般的数据库无法进行分析处理
2006年→Habor
2020→SpringBoot+SpringCloud可用?
压力一定会越来越大,适者生存
用户的个人信息,社交网络,地理位置,用户自己产生的数据,用户日志等爆发式增长
这时候就需要使用NoSQL,可以很好的解决问题
淘宝 php
- 单机MySQL年代
90年代,一个基本的网站访问量不会太大,单个数据库完全足够
那个时候,更多的使用静态网页 html,服务器根本没有太大的压力
思考一下,这种情况下:整个网站的瓶颈是什么?
- 数据量太大,一个机器放不下了
- 数据的索引 (mysql单表数据超过300万就需要写索引),(B+Tree),一个机器内存放不下
- 访问量(读写混合),一个服务器承受不了
三种情况出现之一,那么就必须要晋级
- Memcached(缓存)+MySQL+垂直拆分(读写分离)
网站80%的情况都在读,每次都去查询数据库就很麻烦,为减轻数据库压力,可以使用缓存保证效果(查询数据相同直接读取缓存)
发展过程:手划数据结构和索引→文件缓存(IO)→Memcached(当时最热门的技术!)
大厂不缺人,竞争对手不是人才,竞争对手是老实人
- 分库分表+水平拆分+MySQL集群
技术和业务发展的同时,对人的要求也越来越高
本质:数据库(读,写)
早些年MySQL:MyISAM:表锁(100万数据 只查张三的密码,只能支持一个线程),高并发下会出现严重的锁问题
现在MySQL:InnoDB:行锁
慢慢的就开始使用分库分表解决写的压力,MySQL在那个年代推出了表分区,不过使用公司不多,随后开发出集群,很好的满足了那个年代开发的需求
- 最近的年代
MySQL等关系型数据库就不够用了,数据量很多,变化很快
MySQL有的使用它来存储一些比较大的文件,博客,图片,数据库表很大,效率就低了
如果有种数据库专门处理这些数据,MySQL压力就变得很小(研究如何处理这些问题!)
大数据的IO压力之下,表几乎没法更大
- 目前一个互联网基础项目的结构
什么是NoSQL
NoSQL=NotOnlySQL(不仅仅是SQL)
关系型数据库:表格,行,列(POI)
泛指非关系型数据库,随着web2.0互联网的诞生,传统的关系型数据库很难对付web2.0时代,尤其是超大规模的高并发的社区,暴露出很多难以克服的问题,NoSQL在当今大数据环境的发展十分迅速,Redis是发展最快的,而且是我们当下必须掌握的一个技术。
很多的数据类型用户的个人信息,社交网络,地理位置,这些数据类型的存储不需要一个固定的格式,不需要多余的操作就可以横向扩展 Map<String,Object>() 使用键值对来控制
-
方便扩展(数据之间没有关系,很好扩展)
-
大数据量高性能(Redis 一秒写八万次,读取十一万,NoSQL的缓存级,是一种细粒度的缓存,性能比较高)
-
数据类型是多样性的(不需要实现设计数据库,随取随用,如果是数据量比较大的表,很多人无法设计)
-
传统的RDBMS和NoSQL
传统的RDBMS
-结构化组织
-SQL
-数据和关系都存在单独的表中
-操作,数据定义语言
-严格一致性
-基础的事务
NoSQL
-不仅仅是数据
-没有固定查询语言
-键值对存储,列存储,文档存储,图形数据库(社交关系)
-CAP定理和BASE(异地多活)→ 初级架构师
-高性能,高可扩,高可用
了解:3V+三高
大数据时代的3V:主要是描述问题的
- 海量
- 多样
- 实时
大数据时代的三高:主要是对程序的要求
- 高并发
- 高可拓
- 高性能(保证用户体验和性能)
真正在公司中的实践:NoSQL+RDBMS并行使用
技术没有高低之分,看如何使用(提升内功,思维的提高)
阿里巴巴演进分析
思考问题:这么多的东西都在一个数据库中?
技术急不得,越是慢慢学,才能学扎实
敏捷开发,极限编程
开源才是技术王道
任何一家公司,都不可能只是简简单单让用户能用就好
⬇
个人写的代码也应当尽可能地考虑完善而不是只为了完成一个功能
大量公司做的都是相同的业务:(竞品协议)
随着这样的竞争,业务是越来越完善,然后对于开发者要求也是越来越多
如果未来相当一个架构师,想办法在差异化上面加一层,去实现加的这一层
-
商品的基本信息
名称,价格,商家信息
关系型数据库就可以解决 MySQL/Oracle (淘宝早年去IOE,王坚→《阿里云的这群疯子》
淘宝内部的MySQL 不是大家用的MySQL
-
商品描述,评论(文字偏多)
文档型数据库,MongoDB
-
图片
分布式文件系统 FastDFS
-淘宝自己的 TSP
-Google自己的 GSP
-Hadoop HDFS
-阿里云的 OSS
-
商品的关键字(搜索)
-搜索引擎 solr elasticsearch
-ISearch 多隆(多去了解这些技术人员)
-
商品的热门波段信息
-内存数据库
-Redis Tair,Memche
-
商品的交易,外部的支付接口
-三方应用
一个简单的网页背后的技术一定不是大家所想的那么简单
大型互联网应用问题:
- 数据类型太多了
- 数据源繁多,经常重构
- 数据要改造,大面积改造
解决方案:加一层
这里以上都是NoSQL入门概述,不仅提高知识,同时提高对于大厂的认识
2. NoSQL的四大分类
kv键值对:
- 新浪:Redis
- 美团:Redis+Tair
- 阿里,百度:Redis+Memcache
文档型数据库(bson格式,和json一样)
- MongoDB(一般必须掌握)
- MongoDB是一个基于分布式文件存储的数据库,C++编写,主要用来处理大量的文档
- MongoDB是一个介于关系型数据库的非关系型数据库中间的产品!MongoDB是非关系型数据库中功能最丰富,最像关系型数据库的
- ConthDB
列存储数据库
- HBase
- 分布型文件系统
图关系数据库(放关系的,不是放图片的)
3. Redis入门
概述
Redis是什么?
Redis(Remote Dictionary Server ),即远程字典服务
redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步
是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言API
免费和开源,是当下最热门的NoSQL数据库,也被人称作结构化数据库
Redis能干吗?
- 内存存储,持久化,内存中为断电即失,所以说持久化很重要(rdb,aof)
- 效率高,可以用作高速缓存
- 发布订阅系统
- 地图信息分析
- 计时器,计数器(浏览量)
- …
特性
- 多样化的数据类型
- 持久化
- 集群
- 事务
学习中需要用的东西
- 官网:redis.io
- 中文网:
注:Windows在Github上下载(停更很久)
Redis推荐都是在Linux服务器上搭建的,我们会基于Linux学习
Windows安装
- 下载安装
- 双击启动
- 使用客户端
Windows使用很简单,但是Redis更推荐我们使用Linux进行开发
Linux安装
- 下载安装包
- 进入root帐户→拷入opt目录安装
- 解压后的文件,可以看到redis的配置
- 安装依赖
yum instal gcc-c++
make
make install
- redis的默认安装路径
user/local/bin
- 将redis配置文件复制到目录下
- redis默认不是后台启动的,修改文件
改为yes
linux常用操作
su root
chmod 664 文件名 更改文件权限
- 通过指定文件启动redis服务
- 使用redis-cli进行连接测试
redis默认端口6379
- 查看redis进程是否开启
- 如何关闭redis服务
- 再次查看是否存在
- 后面我们会单机多redis启动集群
4. 性能测试
redis-benchmark是一个压力测试工具
官方自带的性能工具
我们来简单测试下
测试100并发连接 100000个请求
redis-benchmark -h localhost -p 6379 -c 100 -n 100000
5. 基础的知识
redis默认有16个数据库
在redis.conf文件中可以看出
默认使用的是第0个
可以使用select查看
127.0.0.1:6379> select 3 #切换数据库
OK
127.0.0.1:6379[3]> select 0
OK
127.0.0.1:6379> get name #取值
"kuangshen"
127.0.0.1:6379> DBSIZE #查看数据库内容,DB大小
(integer) 5
查看所有列
127.0.0.1:6379> keys * 查看数据库所有列
1) "mylist"
2) "name"
3) "counter:__rand_int__"
4) "key:__rand_int__"
5) "myset:__rand_int__"
清除当前数据库flushdb
127.0.0.1:6379> flushdb
OK
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379>
清除全部数据库内容flushall
127.0.0.1:6379[3]> flushall
OK
127.0.0.1:6379[3]> select 0
OK
127.0.0.1:6379> keys *
(empty list or set)
思考:为什么redis端口号是6379
粉丝效应→一个女星名字九宫格的缩写
明白Redis是很快的,官方表示,Redis是基于内存操作,CPU不是Redis性能瓶颈,Redis的瓶颈处于机器的内存和网络带宽,既然可以使用单线程,就使用单线程。
Redis是C语言写的,官方提供数据为100000+的QPS,完全不比Memcache差
Redis为什么单线程还这么快
-
误区1:高性能服务器不一定是多线程的
-
误区2:多线程一定比单线程高(原因:多线程会导致CPU上下文切换)
CPU,内存,硬盘速度要有所了解
核心:Redis是将所有数据全部放在内存中,所以说使用单线程操作就是最高的,对于内存系统来说,如果没有上下文切换效率就是最高的,多次读写都是在一个CPU上的,内存情况下,这就是最佳的方案
6. 五大数据类型
官网文档
全段翻译:
Redis 是一个开源(BSD许可)的,内存中的数据结构存储系统,它可以用作数据库、缓存和消息中间件。 它支持多种类型的数据结构,如 字符串(strings), 散列(hashes), 列表(lists), 集合(sets), 有序集合(sorted sets) 与范围查询, bitmaps, hyperloglogs 和 地理空间(geospatial) 索引半径查询。 Redis 内置了 复制(replication),LUA脚本(Lua scripting), LRU驱动事件(LRU eviction),事务(transactions) 和不同级别的 磁盘持久化(persistence), 并通过 Redis哨兵(Sentinel)和自动 分区(Cluster)提供高可用性(high availability)。
Redis-key
127.0.0.1:6379> set age 1 #设置age
OK
127.0.0.1:6379> exists name #判断当前key是否存在
(integer) 0
127.0.0.1:6379> exists age
(integer) 1
127.0.0.1:6379> move age 1 #移除当前的key
(integer) 1
127.0.0.1:6379> keys * #查询所有的key
(empty list or set)
127.0.0.1:6379> set name kuangshen
OK
127.0.0.1:6379> keys *
1) "name"
127.0.0.1:6379> get name
"kuangshen"
127.0.0.1:6379> expire name 10 #设置key的过期时间
(integer) 1
127.0.0.1:6379> ttl name #查看当前key的剩余时间
(integer) 2
127.0.0.1:6379> ttl name
(integer) -2 # 显示复数时代表已经失效
127.0.0.1:6379> get name
(nil)
127.0.0.1:6379> type name #查看当前key的类型
string
String(字符串)
90%Java程序猿使用redis只会使用String类型
##########################################################################
127.0.0.1:6379> set key1 v1 #设置值
OK
127.0.0.1:6379> get key1 #获得值
"v1"
127.0.0.1:6379> keys * #获得所有值
1) "name"
2) "key1"
127.0.0.1:6379> exists key1 #判断某个key是否存在
(integer) 1
127.0.0.1:6379> append key1 "hello" #给key里加值
(integer) 7
127.0.0.1:6379> get key1
"v1hello"
127.0.0.1:6379> strlen key1 #获取字符串的长度
(integer) 7
127.0.0.1:6379> append key1 kuangshen
(integer) 16
127.0.0.1:6379> get key1
"v1hellokuangshen"
##########################################################################
i++
步长 i++
127.0.0.1:6379> set views 0
OK
127.0.0.1:6379> get views
"0"
127.0.0.1:6379> incr views #自增1 浏览量+1
(integer) 1
127.0.0.1:6379> incr views
(integer) 2
127.0.0.1:6379> get views
"2"
127.0.0.1:6379> decr views #自减1 浏览量-1
(integer) 1
127.0.0.1:6379> decr views
(integer) 0
127.0.0.1:6379> decr views
(integer) -1
127.0.0.1:6379> get views
"-1"
127.0.0.1:6379> incrby views 10 #可以设置步长,改变增量
(integer) 9
127.0.0.1:6379> incrby views 10
(integer) 19
127.0.0.1:6379> decrby views 5
(integer) 14
##########################################################################
字符串范围
127.0.0.1:6379> set key1 "hello,kuangshen"
OK
127.0.0.1:6379> getrange key1 0 3 #截取字符串[0,3]
"hell"
127.0.0.1:6379> getrange key1 0 -1 #获取全部字符串 和 getkey相同
"hello,kuangshen"
#替换
127.0.0.1:6379> set key2 abcd
OK
127.0.0.1:6379> get key2
"abcd"
127.0.0.1:6379> setrange key2 1 xx
(integer) 4
127.0.0.1:6379> get key2
"axxd"
##########################################################################
#setex(set with expire) #设置过期时间
#setnx(set if not exist) #不存在设置 (在分布式锁中会常常使用
127.0.0.1:6379> setex key3 30 hello #设置key3的值为 hello,30s后过期
OK
127.0.0.1:6379> ttl key3
(integer) 25
127.0.0.1:6379> get key3
"hello"
127.0.0.1:6379> setnx mykey "redis" #如果mykey不存在,创建mykey
(integer) 1
127.0.0.1:6379> keys *
1) "mykey"
2) "key2"
3) "key1"
127.0.0.1:6379> setnx mykey "mongoDB" #如果mykey存在,创建失败
(integer) 0
127.0.0.1:6379> get mykey
"redis"
##########################################################################
127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3 #同时设置多个值
OK
127.0.0.1:6379> keys *
1) "k3"
2) "k2"
3) "key2"
4) "mykey"
5) "key1"
6) "k1"
127.0.0.1:6379> mget k1 k2 k3 #同时获取多个值
1) "v1"
2) "v2"
3) "v3"
127.0.0.1:6379> msetnx k1 v1 k2 v2 k3 v3 k4 v4 #msetnx原子性操作,要么一起成功,要么一起失败
(integer) 0
127.0.0.1:6379>
##########################################################################
set user:1{name:zhangsan,age:3} #设置一个user,值为json字符来保存一个对象
#这里的key是一个巧妙的设计,user:{id}:{filed},如此设计在redis中是完全ok的
127.0.0.1:6379> mset user:1:name zhangsan user:1:age 20
OK
127.0.0.1:6379> mget user:1:name user:1:age
1) "zhangsan"
2) "20"
127.0.0.1:6379>
##########################################################################
getset #先get在set
127.0.0.1:6379> getset db redis #如果不存在值,则返回nil
(nil)
127.0.0.1:6379> get db
"redis"
127.0.0.1:6379> getset db mongoDB #如果存在值,则获取原来的值,并设置新的值
"redis"
127.0.0.1:6379> get db
"mongoDB"
结构相同的时候,未来,jedis.
String类型使用场景:value是除了我们的字符串还可以是我们的数字
- 计数器
- 统计多单位的数量
uid:.........
- 粉丝数
- 对象缓存数据
List(列表)
在redis中,我们可以把list玩成栈,队列
所有的list命令都是l开头的
############################################################################
127.0.0.1:6379> lpush list one #将一个链表或多个值插入到列表头部(左边 #头插法
(integer) 1
127.0.0.1:6379> lpush list two
(integer) 2
127.0.0.1:6379> lpush list three
(integer) 3
127.0.0.1:6379> lrange list 0 -1 #获取list的值
1) "three"
2) "two"
3) "one"
127.0.0.1:6379> lrange list 0 1 #通过区间获取具体的值
1) "three"
2) "two"
127.0.0.1:6379> rpush list right #尾插法
(integer) 4
127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
############################################################################
lpop
rpop
127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> lpop list #移除list的一个元素
"three"
127.0.0.1:6379> rpop list #移除list的最后一个元素
"right"
127.0.0.1:6379> lrange list 0 -1
1) "two"
2) "one"
############################################################################
lindex
127.0.0.1:6379> lrange list 0 -1
1) "two"
2) "one"
127.0.0.1:6379> lindex list 1 #通过下标获得list中的某一个值
"one"
127.0.0.1:6379> lindex list 0
"two"
############################################################################
llen
127.0.0.1:6379> lpush list one
(integer) 1
127.0.0.1:6379> lpush list two
(integer) 2
127.0.0.1:6379> lpush list three
(integer) 3
127.0.0.1:6379> llen list #取数组长度
(integer) 3
############################################################################
移除指定的值
取关 uid
lrem
127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "two"
3) "one"
127.0.0.1:6379> lrem list 1 one
(integer) 1
127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "two"
127.0.0.1:6379> lpush list three
(integer) 3
127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "three"
3) "two"
127.0.0.1:6379> lrem list 2 three
(integer) 2
127.0.0.1:6379> lrange list 0 -1
1) "two"
############################################################################
trim() 修剪 去重
127.0.0.1:6379> rpush mylist "helo"
(integer) 1
127.0.0.1:6379> rpush mylist "helo1"
(integer) 2
127.0.0.1:6379> rpush mylist "helo12"
(integer) 3
127.0.0.1:6379> ltrim mylist 1 2 #通过下标截取指定的长度,这个list已经被截断,只剩下截取的元素
OK
127.0.0.1:6379> lrange mylist 0 -1
1) "helo1"
2) "helo12"
############################################################################
rpop lpush #移除列表最后元素,将他移动到新的列表里
127.0.0.1:6379> rpush mylist "hello"
(integer) 1
127.0.0.1:6379> rpush mylist "hello1"
(integer) 2
127.0.0.1:6379> rpush mylist "hello12"
(integer) 3
127.0.0.1:6379> rpoplpush mylist myotherlist #移除列表最后元素,将他移动到新的列表里
"hello12"
127.0.0.1:6379> lrange mylist 0 -1 #查看原来列表
1) "hello"
2) "hello1"
127.0.0.1:6379> lrange myotherlist 0 -1 #查看新列表
1) "hello12"
############################################################################
lset将列表中指定下表的值替换为另一个值
127.0.0.1:6379> exists list #判断列表是否存在
(integer) 0
127.0.0.1:6379> lset list 0 item #不存在时更新就会报错
(error) ERR no such key
127.0.0.1:6379> lpush list value1
(integer) 1
127.0.0.1:6379> lrange list 0 -1
1) "value1"
127.0.0.1:6379> lset list 0 item #如果存在,就会替换成下标的值
OK
127.0.0.1:6379> lrange list 0 -1 #值已经替换成功
1) "item"
############################################################################
linsert 将某个具体值,插入到列表中某一元素的前/后
127.0.0.1:6379> rpush mylist "hello"
(integer) 1
127.0.0.1:6379> rpush mylist "hello1"
(integer) 2
127.0.0.1:6379> linsert mylist before "hello1" "other"
(integer) 3
127.0.0.1:6379> lrange mylist 0 -1
1) "hello"
2) "other"
3) "hello1"
127.0.0.1:6379> linsert mylist after "hello1" "hello2"
(integer) 4
127.0.0.1:6379> lrange mylist 0 -1
1) "hello"
2) "other"
3) "hello1"
4) "hello2"
- 它实际上是一个链表,before node after ,left,right都可以插入值
- 如果key不存在,创建新的链表
- 如果key存在,新增内容
- 如果移除了所有值,空链表也代表不存在
- 在两边插入或者改动值,效率最高,中间元素,相对效率会低一些
消息排队,消息队列(Lpush Rpop),栈(Lpush Lpop)
Set(集合)
set中的值是不能重复的
############################################################################
#set集合添加元素
127.0.0.1:6379> sadd myset "hello"
(integer) 1
127.0.0.1:6379> sadd myset "hello1"
(integer) 1
127.0.0.1:6379> sadd myset "hello12"
(integer) 1
127.0.0.1:6379> smembers myset #查看指定set的所有值
1) "hello"
2) "hello12"
3) "hello1"
127.0.0.1:6379> sismember myset hello #某一个值是否存在集合中
(integer) 1
127.0.0.1:6379> sismember myset hello0
(integer) 0
############################################################################
127.0.0.1:6379> scard myset #获取set集合中的内容元素个数
(integer) 3
127.0.0.1:6379> sadd myset "hello13"
(integer) 1
127.0.0.1:6379> scard myset
(integer) 4
############################################################################
rem
127.0.0.1:6379> srem myset hello #移除set集合中的指定元素
(integer) 1
127.0.0.1:6379> scard myset
(integer) 3
127.0.0.1:6379> smembers myset
1) "hello13"
2) "hello12"
3) "hello1"
############################################################################
set 无序不重复重合,抽随机
127.0.0.1:6379> smembers myset
1) "hello13"
2) "hello12"
3) "hello1"
127.0.0.1:6379> srandmember myset #随机抽出一个元素
"hello13"
127.0.0.1:6379> srandmember myset
"hello1"
127.0.0.1:6379> srandmember myset 2 #随机抽出指定个元素个数随机值
1) "hello1"
2) "hello12"
############################################################################
移除指定的key,随机删除一个key
127.0.0.1:6379> smembers myset
1) "hello13"
2) "hello12"
3) "hello1"
127.0.0.1:6379> spop myset #随机删除一个集合中的元素
"hello12"
127.0.0.1:6379> spop myset
"hello13"
127.0.0.1:6379> smembers myset
1) "hello1"
############################################################################
将一个指定的值,移动到另一个set集合中
127.0.0.1:6379> sadd myset "hello"
(integer) 1
127.0.0.1:6379> sadd myset "hello1"
(integer) 1
127.0.0.1:6379> sadd myset "hello12"
(integer) 1
127.0.0.1:6379> sadd myset2 "set2"
(integer) 1
127.0.0.1:6379> smove myset myset2 "hello" #将一个指定的值,移动到另一个set集合
(integer) 1
127.0.0.1:6379> smembers myset
1) "hello12"
2) "hello1"
127.0.0.1:6379> smembers myset2
1) "hello"
2) "set2"
############################################################################
微博,b站的共同关注
数学集合类
- 交集
- 并集
127.0.0.1:6379> sadd key1 a
(integer) 1
127.0.0.1:6379> sadd key1 b
(integer) 1
127.0.0.1:6379> sadd key1 c
(integer) 1
127.0.0.1:6379> sadd key2 c
(integer) 1
127.0.0.1:6379> sadd key2 d
(integer) 1
127.0.0.1:6379> sadd key2 e
(integer) 1
127.0.0.1:6379> sadd key2 F
(integer) 1
127.0.0.1:6379> sdiff key1 key2 #差集查看
1) "b"
2) "a"
127.0.0.1:6379> sinter key1 key2 #查看共同好友
1) "c"
127.0.0.1:6379> sunion key1 key2 #并集
1) "a"
2) "b"
3) "c"
4) "F"
5) "d"
微博,A用户将所有关注放在一个set集合中,粉丝也是
共同关注(两个set集合求一个并集),共同…,二度好友,推荐好友(六度分隔理论)
Hash(哈希)
Map集合,key-map,这时候这个值是一个map集合,本质和String没有太大区别,还是一个简单的key-value
set myhash filed kuangshen
127.0.0.1:6379> hset myhash filed1 kuangshen #set一个具体的key-value
(integer) 1
127.0.0.1:6379> hget myhash filed1
"kuangshen"
127.0.0.1:6379> hmset myhash filed hello filed2 world 设置多个key-value
OK
127.0.0.1:6379> hmget myhash filed1 filed2 #获取多个字段值
1) "kuangshen"
2) "world"
127.0.0.1:6379> hgetall myhash #获取全部字段值
1) "filed1"
2) "kuangshen"
3) "filed"
4) "hello"
5) "filed2"
6) "world"
############################################################################
127.0.0.1:6379> hdel myhash filed1 #删除指定的值,删除指定的key后,对应的value值也相对应删除了
(integer) 1
127.0.0.1:6379> hgetall myhash
1) "filed"
2) "hello"
3) "filed2"
4) "world"
############################################################################
hlen
127.0.0.1:6379> hgetall myhash
1) "filed"
2) "hello"
3) "filed2"
4) "world"
127.0.0.1:6379> hlen myhash #获取hash表中字段长度
(integer) 2
############################################################################
127.0.0.1:6379> hexists myhash field
(integer) 0
127.0.0.1:6379> hexists myhash filed1 #判断指定字段是否存在
(integer) 1
############################################################################
127.0.0.1:6379> hkeys myhash #只获得所有field
1) "filed"
2) "filed2"
3) "filed1"
127.0.0.1:6379> hvals myhash #只获得所有value
1) "hello"
2) "world"
3) "kuangshen"
############################################################################
incr decr
127.0.0.1:6379> hset myhash filed3 5
(integer) 1
127.0.0.1:6379> hincrby myhash filed3 1
(integer) 6
127.0.0.1:6379> hincrby myhash filed3 -1
(integer) 5
127.0.0.1:6379> hsetnx myhash filed4 hello #如果不存在可以设置,如果存在则不能设置
(integer) 1
127.0.0.1:6379> hsetnx myhash filed4 world
(integer) 0
127.0.0.1:6379>
Hash可用于变更的数据 user name 尤其是用户信息之类的,经常变动的信息,hash更适合于对象的存储,string更加适合字符串存储
Zset(有序集合)
在set基础上,增加了一个值,set k1 v1 zset k1 score1 v1
############################################################################
127.0.0.1:6379> zadd myset 1 one #添加一个值
(integer) 1
127.0.0.1:6379> zadd myset 2 two 3 three #添加多个值
(integer) 2
127.0.0.1:6379> zrange myset 0 -1
1) "one"
2) "two"
3) "three"
###########################################################################
排序如何实现
补:+∞ = +inf -∞=-inf
127.0.0.1:6379> zadd salary 2500 xiaohong
(integer) 1
127.0.0.1:6379> zadd salary 5000 zhangsan
(integer) 1
排序是从最小值到最大值
127.0.0.1:6379> zrangebyscore salary -inf +inf
1) "xiaohong"
2) "zhangsan"
从大到小排序语法
127.0.0.1:6379> zrevrange salary 0 -1
1) "zhangsan"
127.0.0.1:6379> zrangebyscore salary -inf +inf withscores #显示所有用户排序,并且带成绩
1) "xiaohong"
2) "2500"
3) "zhangsan"
4) "5000"
127.0.0.1:6379> zrangebyscore salary -inf 2500 withscores
1) "xiaohong"
2) "2500"
################################################################################
移除rem中的元素
127.0.0.1:6379> zrange salary 0 -1
1) "xiaohong"
2) "zhangsan"
127.0.0.1:6379> zrem salary xiaohong #移除指定元素
(integer) 1
127.0.0.1:6379> zrange salary 0 -1
1) "zhangsan"
127.0.0.1:6379> zcard salary #获取有序集合中的个数
(integer) 1
################################################################################
127.0.0.1:6379> zadd myset 1 hello 2 world 3 kuangshen
(integer) 3
127.0.0.1:6379> zcount myset 1 2 #获取指定区间的成员数量
(integer) 2
其他的一些api,通过我们的学习,你们剩下的如果工作中有需要,可以去查看官方文档查找使用方法
案例思路:set 排序,存储班级成绩表,工资表排序
普通消息 ,1 ,重要消息 2,带权重进行判断
排行榜应用实现,取top n
7. 三种特殊数据类型
geospatial 地理位置
朋友的定位,附近的人,打车的距离计算
Redis的Geo在3.2版本就推出了,这个功能可以推算两个位置之间的句里,方圆几里的人
测试数据箱:
只有六个命令
官方文档:
#geoadd 添加地理位置
#规则: 两级无法直接添加,我们会下载城市数据,直接通过Java程序导入
#参数 :纬度 经度名称
有效的经度从-180度到180度。
有效的纬度从-85.05112878度到85.05112878度。
当坐标位置超出上述指定范围时,该命令将会返回一个错误。
127.0.0.1:6379> 127.0.0.1:6379> geoadd china:city 39.90 116.40 beijing
(error) ERR unknown command `127.0.0.1:6379>`, with args beginning with: `geoadd`, `china:city`, `39.90`, `116.40`, `beijing`,
127.0.0.1:6379> geoadd china:city 116.40 39.90 beijing
(integer) 1
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqinng
(integer) 1
127.0.0.1:6379> geoadd china:city 114.05 22.54 shenzhen
(integer) 1
127.0.0.1:6379> geoadd china:city 120.16 30.24 hangzhou
(integer) 1
127.0.0.1:6379> geoadd china:city 108.96 34.26 xian
(integer) 1
获取当前定位:一定是个坐标值
127.0.0.1:6379> geopos china:city beijing chongqinng #获取指定城市的经度与纬度
1) 1) "116.39999896287918091"
2) "39.90000009167092543"
2) 1) "106.49999767541885376"
2) "29.52999957900659211"
两人间的距离
指定单位的参数 unit 必须是以下单位的其中一个:
- m 表示单位为米。
- km 表示单位为千米。
- mi 表示单位为英里。
- ft 表示单位为英尺。
127.0.0.1:6379> geodist china:city beijing shanghai #查看上海到北京的直线距离
"1067378.7564"
127.0.0.1:6379> geodist china:city beijing shanghai km #查看重庆到北京的直线距离
"1067.3788"
127.0.0.1:6379> geodist china:city beijing chongqinng km
"1464.0708"
我附近的人(获得所有附近的人的地址,定位)通过半径来查询
获得指定数量的人,200人
所有的数据应该都录入:china:city,才会让结果更加精确
127.0.0.1:6379> georadius china:city 110 30 1000 km #获取100 -30 这个经纬度为中心,寻找方圆1000km的城市
1) "chongqinng"
2) "xian"
3) "shenzhen"
4) "hangzhou"
127.0.0.1:6379> georadius china:city 110 30 500 km
1) "chongqinng"
2) "xian"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist #显示到中间的距离
1) 1) "chongqinng"
2) "341.9374"
2) 1) "xian"
2) "483.8340"
127.0.0.1:6379> georadius china:city 110 30 500 km withcoord #显示他人的定位信息
1) 1) "chongqinng"
2) 1) "106.49999767541885376"
2) "29.52999957900659211"
2) 1) "xian"
2) 1) "108.96000176668167114"
2) "34.25999964418929977"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 1 #筛选出指定结果
1) 1) "chongqinng"
2) "341.9374"
3) 1) "106.49999767541885376"
2) "29.52999957900659211"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 2
1) 1) "chongqinng"
2) "341.9374"
3) 1) "106.49999767541885376"
2) "29.52999957900659211"
2) 1) "xian"
2) "483.8340"
3) 1) "108.96000176668167114"
2) "34.25999964418929977"
#找出位于指定元素周围的其他元素
127.0.0.1:6379> georadiusbymember china:city beijing 1000 km
1) "beijing"
2) "xian"
127.0.0.1:6379> georadiusbymember china:city shanghai 400 km
1) "hangzhou"
2) "shanghai"
该命令将返回11个字符的geohash字符串
#将二维的经纬度转换为一维的字符串,两个字符串越接近,那么两个位置的实际位置越近
127.0.0.1:6379> geohash china:city beijing chongqinng
1) "wx4fbxxfke0"
2) "wm5xzrybty0"
127.0.0.1:6379> zrange china:city 0 -1 #查看全部元素
1) "chongqinng"
2) "xian"
3) "shenzhen"
4) "hangzhou"
5) "shanghai"
6) "beijing"
127.0.0.1:6379> zrem china:city beijing #删除某个元素
(integer) 1
127.0.0.1:6379> zrange china:city 0 -1
1) "chongqinng"
2) "xian"
3) "shenzhen"
4) "hangzhou"
5) "shanghai"
Hyperloglog
A(1,3,5,7,9)
B(1,3,5,7,8)
基数(不重复的元素)=5 可以接受误差
Redis 2.8.9 版本就更新了Hyperloglog数据结构
Redis Hyperloglog基数统计算法
优点:占用内存数据固定,2`64不同的元素的数字,只需要12k的内存,如果从内存比较,Hyperloglog应该是首选
网页的UV(一个人访问一个网站多次,但还是算作一个人)
传统的方式,set保存用户的id,然后基于可以统计set中的元素数量作为标准判断
这个方式,如果保存大量的用户id,就会比较麻烦,我们的目的是计数而不是为了保存用户id
0.81%的错误率,统计UV任务,就可以不计了
127.0.0.1:6379> pfadd mykey a b c d e f g h i j #创建第一组元素
(integer) 1
127.0.0.1:6379> pfcount mykey #统计mykey元素的基数数量
(integer) 10
127.0.0.1:6379> pfcount mykey2 i j z x c v b n m
(integer) 0
127.0.0.1:6379> pfcount mykey2 i j z x c v b n m
(integer) 0
127.0.0.1:6379> pfadd mykey2 i j z x c v b n m
(integer) 1
127.0.0.1:6379> pfmerge mykey3 mykey mykey2 #合并两组 mykey mykey2 -> mykey3 并集
OK
127.0.0.1:6379> pfcount mykey3
(integer) 15
如果允许容错,那么一定可以使用Hyperloglog
如果不允许容错,就使用set或者自己的数据类型即可
Bitmaps
为什么其他教程不喜欢讲这些,这些在生活或开发中,都有十分多的应用场景,学习了就是多一个思路
统计疫情感染人数:0 1 0 1
统计用户信息:活跃,不活跃!登录,未登录!打卡,365天打卡,两个状态的,都可以使用bitmaps
bitmaps位图:数据结构,都是操作二进制位来记录,就只有0和1两个状态
365天 = 365bit 1字节 = 8bit 46个字节左右
使用bitmap设置打卡签到的值
127.0.0.1:6379> setbit sign 0 1
(integer) 0
127.0.0.1:6379> setbit sign 1 1
(integer) 0
127.0.0.1:6379> setbit sign 2 0
(integer) 0
127.0.0.1:6379> setbit sign 3 1
(integer) 0
127.0.0.1:6379> setbit sign 4 1
(integer) 0
127.0.0.1:6379> setbit sign 5 1
(integer) 0
127.0.0.1:6379> setbit sign 6 1
(integer) 0
127.0.0.1:6379> setbit sign 7 1
(integer) 0
查看某一天是否打卡
127.0.0.1:6379> getbit sign 3
(integer) 1
127.0.0.1:6379> getbit sign 6
(integer) 1
统计操作,统计打卡天数
127.0.0.1:6379> bitcount sign #统计这周打卡记录,就可以看到是否全勤
(integer) 7
8. 事务
Redis事物本质:一组命令的集合,一个事务中的所有命令都会被序列化,在事务执行过程中,会按照顺序执行
----队列 set set set执行----
MySQL:ACID
Redis事务没有隔离级别的高级概念
所有命令在事务中,并没有被直接执行,只有发起执行命令的时候才会执行操作
Redis单条命令是保证原子性的,但是事务不保证原子性的
redis的事务:
- 开启事务(multi)
- 命令入队(…)
- 执行事务(exec)
127.0.0.1:6379> multi #开启事务
OK
#命令入队
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> get k2
QUEUED
127.0.0.1:6379> exec #执行事务
1) OK
2) OK
3) "v2"
127.0.0.1:6379> multi #开启事务
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k4 v4
QUEUED
127.0.0.1:6379> discard #取消事务
OK
127.0.0.1:6379> get k4 #事务队列中的命令不会被执行
(nil)
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> getset k3 #错误的命令
(error) ERR wrong number of arguments for 'getset' command
127.0.0.1:6379> set k4 v4
QUEUED
127.0.0.1:6379> set k5 v5
QUEUED
127.0.0.1:6379> exec #执行事务报错
(error) EXECABORT Transaction discarded because of previous errors.
127.0.0.1:6379> get k5 所有命令都不会执行
(nil)
127.0.0.1:6379> set k1 "v1"
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> incr k1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> get k3
QUEUED
127.0.0.1:6379> exec
1) (error) ERR value is not an integer or out of range #虽然第一条命令报错,但是依旧执行成功了
2) OK
3) OK
4) "v3"
127.0.0.1:6379> get k2
"v2"
127.0.0.1:6379> get k3
"v3"
悲观锁:
- 很悲观,认为什么时候都会出问题,无论做什么都加锁
乐观锁
- 很乐观,认为什么时候都不会出问题,无论做什么都不会上锁,更新数据的时候判断一下,在此期间是否有人修改这个数据
- 获取version
- 更新的时候比较version
正常执行成功
127.0.0.1:6379> set monkey 100
OK
127.0.0.1:6379> set out 0
OK
127.0.0.1:6379> watch monkey #监视monkey对象
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> decrby monkey 20
QUEUED
127.0.0.1:6379> incrby out 20
QUEUED
127.0.0.1:6379> exec
1) (integer) 80
测试多线程修改值,使用watch可以当作redis的乐观锁操作
线程一:
[root@localhost walnutp]# redis-cli -p 6379
127.0.0.1:6379> watch monkey
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> decrby monkey 10
QUEUED
127.0.0.1:6379> incrby out 10
QUEUED
127.0.0.1:6379> exec #执行之前,另外一个线程更改值,执行失败
(nil)
线程二:
127.0.0.1:6379> get monkey
"80"
127.0.0.1:6379> set monkey 1000
OK
乐观锁操作步骤:
- 事务执行失败,先解锁
- 获取最新的值
- 比对监视的值是否改变,未变直接执行,改变再重复刚才的操作
MySQL,Mybatis-Plus都讲过乐观锁
9. Jedis
我们要使用Java来操作Redis
知其然,并知其所以然,学习不能急躁,慢慢来很快
- 导入对应依赖
<!--导入jedis的包-->
<dependencies>
<!-- https://mvnrepository.com/artifact/redis.clients/jedis -->
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>3.2.0</version>
</dependency>
<!--fastjson-->
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>1.2.62</version>
</dependency>
</dependencies>
- 编码测试
- 连接数据库
public static void main(String[] args) {
// 1. new jedis 对象即可
Jedis jedis = new Jedis("127.0.0.1", 6379);
// jedis 所有的命令就是我们之前学习的命令
System.out.println(jedis.ping());
}
输出:
- 操作命令
- 结束操作
事务理解
public class TestTX {
public static void main(String[] args) {
Jedis jedis = new Jedis("127.0.0.1", 6379);
jedis.flushAll();
Transaction multi = jedis.multi(); //开启事务
JSONObject jsonObject = new JSONObject();
jsonObject.put("hello", "world");
jsonObject.put("name", "kuangshen");
String s = jsonObject.toJSONString();
jedis.watch(s);
try
{
multi.set("user1", s);
multi.set("user2", s);
int i = 1/0; //代码抛出异常,执行失败
multi.exec();
}
catch (Exception e)
{
multi.discard();
e.printStackTrace();;
}
finally {
System.out.println(jedis.get("user1"));
System.out.println(jedis.get("user2"));
jedis.close();
}
}
}
注:思想,在实现功能的时候要习惯性的添加try catch,抛出异常,好习惯
10. SpringBoot整合
SpringBoot操作数据层:SpringData jpa jdbc mongodb redis
SpringData也是和SpringBoot齐名的项目
说明:在SpringBoot 2.x后,原来使用的jedis被替换为lettuce
jedis:采用直连,多个线程操作是不安全的,如果想要避免不安全,使用jedis pool连接池,更像 BIO 模式
lettuce:采用nety,实例可以在多个线程中共享,不存在线程不安全的情况,可以减少线程数据,更像 NIO 模式
- 导入依赖
- 配置连接
spring.redis.host=127.0.0.1
spring.redis.port=6379
- 测试
@SpringBootTest
class Redis02SpringbootApplicationTests {
@Autowired
private RedisTemplate redisTemplate;
@Test
void contextLoads() {
// redisTemplate 操作不同的数据类型
// opsForValue操作字符串,类似String
// opsForList操作list,类似list
// opsForHash
// opsForZSet
// opsForHyperLogLog
// 除了基础操作,我们常用的方法都可以直接通过redisTemplate操作,比如事务和基本的增删改查
RedisConnection connection = redisTemplate.getConnectionFactory().getConnection();
//获取redis的链接对象
// connection.flushdb()
// connection.flushall()
redisTemplate.opsForValue().set("mykey", "关注嘉然,顿顿解馋");
System.out.println(redisTemplate.opsForValue().get("mykey"));
}
}
11. Redis的自定义配置
配置类
package com.xu.config;
import com.fasterxml.jackson.annotation.JsonAutoDetect;
import com.fasterxml.jackson.annotation.PropertyAccessor;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.springframework.boot.autoconfigure.condition.ConditionalOnSingleCandidate;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;
@Configuration
public class RedisConfig {
@Bean
@SuppressWarnings("all")
public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
// 我们为了自己开发方便,一般直接使用 <String,Object>
RedisTemplate<String, Object> template = new RedisTemplate<String, Object>();
template.setConnectionFactory(factory);
// 序列化配置
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
ObjectMapper om = new ObjectMapper();
om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(om);
// String 的序列化
StringRedisSerializer stringRedisSerializer = new StringRedisSerializer();
// key采用String的序列化方式
template.setKeySerializer(stringRedisSerializer);
// hash的key也采用String的序列化方式
template.setHashKeySerializer(stringRedisSerializer);
// value序列化方式采用jackson
template.setValueSerializer(jackson2JsonRedisSerializer);
// hash的value序列化方式采用jackson
template.setHashValueSerializer(jackson2JsonRedisSerializer);
template.afterPropertiesSet();
return template;
}
}
封装好的redis工具类
package com.xu.utils;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.stereotype.Component;
import org.springframework.util.CollectionUtils;
import java.util.Collection;
import java.util.List;
import java.util.Map;
import java.util.Set;
import java.util.concurrent.TimeUnit;
//在真实开发中,我们一般都是调用工具类
@Component
public final class RedisUtil {
@Autowired
private RedisTemplate<String, Object> redisTemplate;
// =============================common============================
/**
* 指定缓存失效时间
* @param key 键
* @param time 时间(秒)
*/
public boolean expire(String key, long time) {
try {
if (time > 0) {
redisTemplate.expire(key, time, TimeUnit.SECONDS);
}
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 根据key 获取过期时间
* @param key 键 不能为null
* @return 时间(秒) 返回0代表为永久有效
*/
public long getExpire(String key) {
return redisTemplate.getExpire(key, TimeUnit.SECONDS);
}
/**
* 判断key是否存在
* @param key 键
* @return true 存在 false不存在
*/
public boolean hasKey(String key) {
try {
return redisTemplate.hasKey(key);
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 删除缓存
* @param key 可以传一个值 或多个
*/
@SuppressWarnings("unchecked")
public void del(String... key) {
if (key != null && key.length > 0) {
if (key.length == 1) {
redisTemplate.delete(key[0]);
} else {
redisTemplate.delete((Collection<String>) CollectionUtils.arrayToList(key));
}
}
}
// ============================String=============================
/**
* 普通缓存获取
* @param key 键
* @return 值
*/
public Object get(String key) {
return key == null ? null : redisTemplate.opsForValue().get(key);
}
/**
* 普通缓存放入
* @param key 键
* @param value 值
* @return true成功 false失败
*/
public boolean set(String key, Object value) {
try {
redisTemplate.opsForValue().set(key, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 普通缓存放入并设置时间
* @param key 键
* @param value 值
* @param time 时间(秒) time要大于0 如果time小于等于0 将设置无限期
* @return true成功 false 失败
*/
public boolean set(String key, Object value, long time) {
try {
if (time > 0) {
redisTemplate.opsForValue().set(key, value, time, TimeUnit.SECONDS);
} else {
set(key, value);
}
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 递增
* @param key 键
* @param delta 要增加几(大于0)
*/
public long incr(String key, long delta) {
if (delta < 0) {
throw new RuntimeException("递增因子必须大于0");
}
return redisTemplate.opsForValue().increment(key, delta);
}
/**
* 递减
* @param key 键
* @param delta 要减少几(小于0)
*/
public long decr(String key, long delta) {
if (delta < 0) {
throw new RuntimeException("递减因子必须大于0");
}
return redisTemplate.opsForValue().increment(key, -delta);
}
// ================================Map=================================
/**
* HashGet
* @param key 键 不能为null
* @param item 项 不能为null
*/
public Object hget(String key, String item) {
return redisTemplate.opsForHash().get(key, item);
}
/**
* 获取hashKey对应的所有键值
* @param key 键
* @return 对应的多个键值
*/
public Map<Object, Object> hmget(String key) {
return redisTemplate.opsForHash().entries(key);
}
/**
* HashSet
* @param key 键
* @param map 对应多个键值
*/
public boolean hmset(String key, Map<String, Object> map) {
try {
redisTemplate.opsForHash().putAll(key, map);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* HashSet 并设置时间
* @param key 键
* @param map 对应多个键值
* @param time 时间(秒)
* @return true成功 false失败
*/
public boolean hmset(String key, Map<String, Object> map, long time) {
try {
redisTemplate.opsForHash().putAll(key, map);
if (time > 0) {
expire(key, time);
}
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 向一张hash表中放入数据,如果不存在将创建
*
* @param key 键
* @param item 项
* @param value 值
* @return true 成功 false失败
*/
public boolean hset(String key, String item, Object value) {
try {
redisTemplate.opsForHash().put(key, item, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 向一张hash表中放入数据,如果不存在将创建
*
* @param key 键
* @param item 项
* @param value 值
* @param time 时间(秒) 注意:如果已存在的hash表有时间,这里将会替换原有的时间
* @return true 成功 false失败
*/
public boolean hset(String key, String item, Object value, long time) {
try {
redisTemplate.opsForHash().put(key, item, value);
if (time > 0) {
expire(key, time);
}
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 删除hash表中的值
*
* @param key 键 不能为null
* @param item 项 可以使多个 不能为null
*/
public void hdel(String key, Object... item) {
redisTemplate.opsForHash().delete(key, item);
}
/**
* 判断hash表中是否有该项的值
*
* @param key 键 不能为null
* @param item 项 不能为null
* @return true 存在 false不存在
*/
public boolean hHasKey(String key, String item) {
return redisTemplate.opsForHash().hasKey(key, item);
}
/**
* hash递增 如果不存在,就会创建一个 并把新增后的值返回
*
* @param key 键
* @param item 项
* @param by 要增加几(大于0)
*/
public double hincr(String key, String item, double by) {
return redisTemplate.opsForHash().increment(key, item, by);
}
/**
* hash递减
*
* @param key 键
* @param item 项
* @param by 要减少记(小于0)
*/
public double hdecr(String key, String item, double by) {
return redisTemplate.opsForHash().increment(key, item, -by);
}
// ============================set=============================
/**
* 根据key获取Set中的所有值
* @param key 键
*/
public Set<Object> sGet(String key) {
try {
return redisTemplate.opsForSet().members(key);
} catch (Exception e) {
e.printStackTrace();
return null;
}
}
/**
* 根据value从一个set中查询,是否存在
*
* @param key 键
* @param value 值
* @return true 存在 false不存在
*/
public boolean sHasKey(String key, Object value) {
try {
return redisTemplate.opsForSet().isMember(key, value);
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 将数据放入set缓存
*
* @param key 键
* @param values 值 可以是多个
* @return 成功个数
*/
public long sSet(String key, Object... values) {
try {
return redisTemplate.opsForSet().add(key, values);
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
/**
* 将set数据放入缓存
*
* @param key 键
* @param time 时间(秒)
* @param values 值 可以是多个
* @return 成功个数
*/
public long sSetAndTime(String key, long time, Object... values) {
try {
Long count = redisTemplate.opsForSet().add(key, values);
if (time > 0)
expire(key, time);
return count;
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
/**
* 获取set缓存的长度
*
* @param key 键
*/
public long sGetSetSize(String key) {
try {
return redisTemplate.opsForSet().size(key);
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
/**
* 移除值为value的
*
* @param key 键
* @param values 值 可以是多个
* @return 移除的个数
*/
public long setRemove(String key, Object... values) {
try {
Long count = redisTemplate.opsForSet().remove(key, values);
return count;
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
// ===============================list=================================
/**
* 获取list缓存的内容
*
* @param key 键
* @param start 开始
* @param end 结束 0 到 -1代表所有值
*/
public List<Object> lGet(String key, long start, long end) {
try {
return redisTemplate.opsForList().range(key, start, end);
} catch (Exception e) {
e.printStackTrace();
return null;
}
}
/**
* 获取list缓存的长度
*
* @param key 键
*/
public long lGetListSize(String key) {
try {
return redisTemplate.opsForList().size(key);
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
/**
* 通过索引 获取list中的值
*
* @param key 键
* @param index 索引 index>=0时, 0 表头,1 第二个元素,依次类推;index<0时,-1,表尾,-2倒数第二个元素,依次类推
*/
public Object lGetIndex(String key, long index) {
try {
return redisTemplate.opsForList().index(key, index);
} catch (Exception e) {
e.printStackTrace();
return null;
}
}
/**
* 将list放入缓存
*
* @param key 键
* @param value 值
*/
public boolean lSet(String key, Object value) {
try {
redisTemplate.opsForList().rightPush(key, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 将list放入缓存
* @param key 键
* @param value 值
* @param time 时间(秒)
*/
public boolean lSet(String key, Object value, long time) {
try {
redisTemplate.opsForList().rightPush(key, value);
if (time > 0)
expire(key, time);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 将list放入缓存
*
* @param key 键
* @param value 值
* @return
*/
public boolean lSet(String key, List<Object> value) {
try {
redisTemplate.opsForList().rightPushAll(key, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 将list放入缓存
*
* @param key 键
* @param value 值
* @param time 时间(秒)
* @return
*/
public boolean lSet(String key, List<Object> value, long time) {
try {
redisTemplate.opsForList().rightPushAll(key, value);
if (time > 0)
expire(key, time);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 根据索引修改list中的某条数据
*
* @param key 键
* @param index 索引
* @param value 值
* @return
*/
public boolean lUpdateIndex(String key, long index, Object value) {
try {
redisTemplate.opsForList().set(key, index, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 移除N个值为value
*
* @param key 键
* @param count 移除多少个
* @param value 值
* @return 移除的个数
*/
public long lRemove(String key, long count, Object value) {
try {
Long remove = redisTemplate.opsForList().remove(key, count, value);
return remove;
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
}
调用方法
所有的Redis操作,对于开发人员来叔,更重要的是去理解redis的思想和每个数据类型的用处和作用场景
12. Redis.conf详解
启动的时候,就是通过配置文件启动的
工作中小小的配置会有大大的提升
行家有没有,出手就知道
- 配置文件 unit单位对于大小写不敏感
就好比学习Spirng的时候,可以利用import和include引入配置文件
bind 127.0.0.1 #绑定的ip
protected-mode yes #保护模式
port 6379 #端口设置
daemonize yes #以守护进程方式运行,默认是no,需要手动开启
pidfile /var/run/redis_6379.pid #如果是以后台的方式运行,我们就需要指定一个pid文件
#日志
# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably) 生产环境适用
# warning (only very important / critical messages are logged)
#生成的日志文件名称
logfile ""
#默认数据库数量
databases 16
#是否总是使用logo
always-show-logo yes
持久化,在规定时间内执行多少次操作则会持久化到文件 .rdb
redis是内存数据库,如果没有数据库,那么数据断点即失
#如果 900 内至少有一个key进行了修改,我们及时进行持久化操作
save 900 1
#如果 300秒 内至少有10个key进行了修改,我们及时进行持久化操作
save 300 10
#如果 60s 内有10000个key进行了修改,我们及时进行持久化操作
save 60 10000
#如果出现错误,是否继续进行持久化操作
stop-writes-on-bgsave-error yes
#是否压缩rdb文件,需要消耗一些cpu资源
rdbcompression yes
#是否校验rdb文件,查看是否有误
rdbchecksum yes
#rdb文件保存的目录
dir ./
可以设置密码,默认是没有密码的
127.0.0.1:6379> ping
PONG
#获取密码
127.0.0.1:6379> config get requirepass
1) "requirepass"
2) ""
#设置密码
127.0.0.1:6379> config set requirepass 123456
OK
#命令无权限不能使用
127.0.0.1:6379> ping
(error) NOAUTH Authentication required.
#使用密码登录
127.0.0.1:6379> auth 123456
OK
127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "123456"
127.0.0.1:6379>
#设置能连接的最大主机数
maxclients 10000
#redis 配置最大的内存容量
maxmemory <bytes>
#内存到达上线的策略
maxmemory-policy noeviction
#移除一些过期的key
1、volatile-lru:只对设置了过期时间的key进行LRU(默认值)
2、allkeys-lru : 删除lru算法的key
3、volatile-random:随机删除即将过期key
4、allkeys-random:随机删除
5、volatile-ttl : 删除即将过期的
6、noeviction : 永不过期,返回错误
#默认不开启aof模式,默认的是rdb方式持久化
appendonly no
#持久化文件的名字
appendfilename "appendonly.aof"
# appendfsync always #每次修改都会 sync 消耗性能
appendfsync everysec #每秒执行一次 sync,可能会丢失这1s的数据
# appendfsync no #不执行 sync ,这个时候操作系统自己同步数据,速度最块
具体的配置,我们在redis持久化给大家讲解
13. Redis持久化
面试和工作,持久化都是重点
Redis是内存数据库,如果不将内存里的数据库状态保存到磁盘,服务器一旦退出,服务中的数据库状态也会消失,所以redis提供了数据库持久化功能
RDB(Redis Database)
在主从复制中,默认rdb为备用,存放在从机上
在指定时间间隔内,将内存里的数据集快照写入磁盘,也就是行话讲的snapsho快照,恢复的时候将快照文件读到内存里(可以理解为虚拟机快照
Redis会单独创建 ( fork )一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。我们默认的就是rdb,一般情况下不需要需改这个配置
有时候在生产环境,我们会把这个文件备份
rdb保存的文件是 dump.rdb文件
- save规则满足的情况下,会自动触发rdb规则
- 执行flushall命令,也会触发我们的rdb规则
- 退出redis,也会产生rdb文件
- 只需要将rdb文件放在我们redis的启动目录之下就可以,redis启动的时候会自动检查dump.rdb 恢复其中的数据
- 查看需要存放的位置
127.0.0.1:6379> config get dir
1) "dir"
2) "/usr/bin" #如果在这个目录下存在 dump.rdb文件,启动就会恢复其中的数据
优点:
- 适合大规模的数据恢复 dump.rdb
- 如果你对数据的完整性不高,适合使用
缺点:
- 需要一定的时间的间隔,如果redis意外宕机,最后一次修改的数据就没有了
- fork进程的时候,会占用一定的内存空间
AOF(Append Only File)
将我们的所有命令都记录下来,history,恢复的时候就把这个文件全部再执行一遍
以日志的形式来记录每个写操作,将Redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
Aof保存的是appendonly.aof文件
默认不开启,我们需要手动开启,我们只需要将appendonly改为yes就开启了
重启redis服务就生效了
如果这个aof文件由错位,redis是启动不起来的,我们需要修复这个aof文件
reds给我们提供了这样一个工具redis-check-aof —fix
如果文件正常了,重启就可以直接恢复了
一种是全丢,一种是丢掉错误的
#默认不开启aof模式,默认的是rdb方式持久化
appendonly no
#持久化文件的名字
appendfilename "appendonly.aof"
# appendfsync always #每次修改都会 sync 消耗性能
appendfsync everysec #每秒执行一次 sync,可能会丢失这1s的数据
# appendfsync no #不执行 sync ,这个时候操作系统自己同步数据,速度最块
aof默认就是文件无限追加
如果文件大于64m,太大了,就fork一个新的进程来将我们的文件重写
优点:
- 每一次修改都同步,文件完整性更好
- 每秒同步一次,可能会丢失一秒的数据
- 从不同步,效率最高
缺点:
- 相对于数据文件来说,aof远大于rdb,修复的速度也比rdb慢
- Aof运行效率也要比rdb慢,所以我们的redis默认的配置就是rdb而不是aof
拓展
1、RDB持久化方式能够在指定的时间间隔内对你的数据进行快照存储
2、AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以Redis协议追加保存每次写的操作到文件末尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。
3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化
4、同时开启两种持久化方式
- 在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整。
- RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的Bug,留着作为一个万一的手段。
5、性能建议
- ·因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 9001这条规则。
- 如果Enable AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。
- ·如果不Enable AOF,仅靠Master-Slave Repllcation 实现高可用性也可以,能省掉一大笔IO,也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时倒掉(断电),会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave 中的 RDB文件,载入较新的那个,微博就是这种架构。
14. Redis发布订阅
消息队列也可以实现
Redis 发布订阅(publsub)是一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接收消息。微信、微博,关注系统
Redis客户端可以订阅任意数量的频道。
订阅/发布消息图:
组成:
第一个:消息发送者 第二个:频道 第三个:消息订阅者
下图展示了频道channel1,以及订阅这个频道的三个客户端―—client2、client5和client1之间的关系:
当有新消息通过PUBLISH 命令发送给频道channel1时,这个消息就会被发送给订阅它的三个客户端:
订阅端
127.0.0.1:6379> subscribe kuangshenshuo
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "kuangshenshuo"
3) (integer) 1
#等待读取推送的信息
1) "message"
2) "kuangshenshuo"
3) "hello,kuangshen"
1) "message"
2) "kuangshenshuo"
3) "hello,redis"
发送端
127.0.0.1:6379> publish kuangshenshuo "hello,kuangshen" #发布信息到频道
(integer) 1
127.0.0.1:6379> publish kuangshenshuo "hello,redis"
(integer) 1
Redis是使用C实现的,通过分析Redis源码里的pubsub.,文件,了解发布和订阅机制的底层实现,籍此加深对Redis 的理解。
微信:
Redis通过PUBLISH 、SUBSCRIBE和PSUBSCRIBE等命令实现发布和订阅功能。
通过SUBSCRIBE命令订阅某频道后,redis-server里维护了一个字典,字典的键就是一个个channel,而字典的值则是一个链表,链表中保存了所有订阅这个channel的客户端SUBSCRIBE命令的关键,就是将客户端添加到给定 channel 的订阅链表中。
通过PUBLISH命令向订阅者发送消息,redis-server会使用给定的频道作为键,在它所维护的channel 字典中查找记录了订阅这个频道的所有客户端的链表,遍历这个链表,将消息发布给所有订阅者。
Pub/Sub从字面上理解就是发布 ( Publish )与订阅( Subscribe ),在Redis中,你可以设定对某一个key值进行消息发布及消息订阅,当一个key值上进行了消息发布后,所有订阅它的客户端都会收到相应的消息。这一功能最明显的用法就是用作实时消息系统,比如普通的即时聊天,群聊等功能。
场景:
- 实时聊天系统
- 实时聊天(频道当作聊天室,将消息回显给所有人即可
例:开黑啦
稍微复杂的场景我们会使用中间件MQ
15. Redis主从复制
概念
主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(masterleader),后者称为从节点(slave/follower);数据的复制是单向的,只能由主节点到从节点。Master以写为主,Slave以读为主。
默认情况下,每台Redis服务器都是主节点;
且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。
主从复制的作用主要包括∶
1、数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
2、故障恢复︰当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
3、负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
4、高可用(集群)基石︰除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
一般来说,要将Redis运用于工程项目中,只使用一台Redis是万万不能的(宕机),原因如下:
1、从结构上,单个Redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载,压力较大;
2、从容量上,单个Redis服务器内存容量有限,就算一台Redis服务器内存容量为256G,也不能将所有内存用作Redis存储内存,一般来说,单台Redis最大使用内存不应该超过20G。
电商网站上的商品,一般都是一次上传,无数次浏览的,说专业点也就是"多读少写"。对于这种场景,我们可以使如下这种架构∶
主从复制,读写分离,80%的情况都是在读取,减少服务器的压力。架构中常用,一般最低配置都是一主二从
只要在公司中,主从复制是必须使用的,在真实环境中不可能单机使用redis
环境配置
只配置从库,不配置总库
127.0.0.1:6379> info replication #查看当前哭的信息
# Replication
role:master
connected_slaves:0
master_replid:e05adb64d67381c40bff8b463c31bde17d8ec362
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
复制三个配置文件,修改对应信息
- 端口
- pid名字
- log文件名字
- dump.rdb名字
修改完毕之后,启动我们这三个redis服务器,可以通过进程信息查看
一主二从
默认情况下,每一台开启的redis主机都是主节点 一般情况下只配置从机
认老大 一主(79) 二从(80,81)
#认老大
127.0.0.1:6381> slaveof 127.0.0.1 6379
OK
#查看信息
127.0.0.1:6381> info replication
# Replication
role:slave #从机角色
master_host:127.0.0.1
master_port:6379 #老大端口号
master_link_status:up
master_last_io_seconds_ago:1
master_sync_in_progress:0
slave_repl_offset:182
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:d9e4316e784dbf92c8d8b3099e76fd76b5f69024
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:182
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:182
#在主机中查看
127.0.0.1:6379> info replication
# Replication
role:master
connected_slaves:1
slave0:ip=127.0.0.1,port=6381,state=online,offset=14,lag=1
master_replid:d9e4316e784dbf92c8d8b3099e76fd76b5f69024
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:14
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:14
真实的配置都是在配置文件中直接配置的,这种配置是永久的,通过命令配置的从机是暂时的
主机可以写,从机只能读取,主机中的所有信息都会自动同步到从机中
写主机读从机测试
从机写测试
测试:主机断开连接,从机依旧连接到主机上,但是没有写操作,可以正常读到值,主机回来后,从及依旧可以直接获取到主机上写的值
如果是使用命令行配置的主机和从机,如果重启后从机就会变为主机,只要变为从机,立马就会同步主机的值
Slave启动成功连接到master后会发送一isync命令
Master接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,并完成一次完全同步。
全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。
增量复制:Master继续将新的所有收集到的修改命令依次传给slave,完成同步
但是只要是重新连接master,一次完全同步(全量复制)将被自动执行,我们的数据一定可以在从机中看到
上一个主机连接下一个从机
谋朝篡位
如果主机断开了连接,我们可以使用slaveof no one
让从机变成主机,其他的节点就可以手动连接主机,如果这个时候老大回来了,就需要重新连接了
哨兵模式
(自动选举老大的模式)
主从切换技术的方法是∶当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,还会造成一段时间内服务不可用。l这不是一种推荐的方式,更多时候,我们优先考虑哨兵模式。Redis从2.8开始正式提供了Sentinel (哨兵)架构来解决这个问题。
谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。
哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例。
这里的哨兵有两个作用
- 通过发送命令,让Redis服务器返回监控其运行状态,包括主服务器和从服务器。
- 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他的从服务器,修改配置文件,让它们切换主机。
然而一个哨兵进程对Redis服务器进行监控,可能会出现问题,为此,我们可以使用多个哨兵进行监控。各个哨兵之间还会进行监控,这样就形成了多哨兵模式。
假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进待failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover[故障转移]操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线。
目前的状态就是一主二从
- 配置哨兵文件 sentinel.conf
sentinel monitor myredis 127.0.0.1 6379 1
⬇ ⬇ ⬇ ⬇
被监视的名称 host port 开启自动投票选举
后面这个数字1代表如果主机挂了,slave投票看让谁接替成为主机,票数最多的就成为主机
- 启动哨兵
[root@localhost bin]# redis-sentinel config/sentinel.conf
65780:X 21 Dec 2021 22:05:35.805 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
65780:X 21 Dec 2021 22:05:35.805 # Redis version=5.0.7, bits=64, commit=00000000, modified=0, pid=65780, just started
65780:X 21 Dec 2021 22:05:35.805 # Configuration loaded
65780:X 21 Dec 2021 22:05:35.806 * Increased maximum number of open files to 10032 (it was originally set to 1024).
_._
_.-``__ ''-._
_.-`` `. `_. ''-._ Redis 5.0.7 (00000000/0) 64 bit
.-`` .-```. ```\/ _.,_ ''-._
( ' , .-` | `, ) Running in sentinel mode
|`-._`-...-` __...-.``-._|'` _.-'| Port: 26379
| `-._ `._ / _.-' | PID: 65780
`-._ `-._ `-./ _.-' _.-'
|`-._`-._ `-.__.-' _.-'_.-'|
| `-._`-._ _.-'_.-' | http://redis.io
`-._ `-._`-.__.-'_.-' _.-'
|`-._`-._ `-.__.-' _.-'_.-'|
| `-._`-._ _.-'_.-' |
`-._ `-._`-.__.-'_.-' _.-'
`-._ `-.__.-' _.-'
`-._ _.-'
`-.__.-'
65780:X 21 Dec 2021 22:05:35.816 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
65780:X 21 Dec 2021 22:05:35.817 # Sentinel ID is 768010b77658704c9e45acf8a1c01ddf631e487f
65780:X 21 Dec 2021 22:05:35.817 # +monitor master myredis 127.0.0.1 6379 quorum 1
65780:X 21 Dec 2021 22:05:35.818 * +slave slave 127.0.0.1:6380 127.0.0.1 6380 @ myredis 127.0.0.1 6379
65780:X 21 Dec 2021 22:05:35.820 * +slave slave 127.0.0.1:6381 127.0.0.1 6381 @ myredis 127.0.0.1 6379
如果这时候主节点断开了,这时就会从从机中选择一个成为主机
哨兵日志
如果主机此时回来了,只能归并到现有主机之下
优点:
- 哨兵集群,基于主从复制模式,所有主从配置的优点他都有
- 主从可以切换,故障可以转移,系统的可用性较好
- 哨兵模式就是主从模式的升级,更加健壮
缺点:
- Redis不好在线扩容,集群容量一旦达到上限,在线扩容就十分麻烦
- 实现哨兵模式的配置很麻烦。里面有很多选择
# Example sentinel.conf
# 哨兵sentinel实例运行的端口 默认26379
port 26379
# 哨兵sentinel的工作目录
dir /tmp
# 哨兵sentinel监控的redis主节点的 ip port
# master-name 可以自己命名的主节点名字 只能由字母A-z、数字0-9 、这三个字符".-_"组成。
# quorum 配置多少个sentinel哨兵统一认为master主节点失联 那么这时客观上认为主节点失联了
# sentinel monitor <master-name> <ip> <redis-port> <quorum>
sentinel monitor mymaster 127.0.0.1 6379 2
# 当在Redis实例中开启了requirepass foobared 授权密码 这样所有连接Redis实例的客户端都要提供密码
# 设置哨兵sentinel 连接主从的密码 注意必须为主从设置一样的验证密码
# sentinel auth-pass <master-name> <password>
sentinel auth-pass mymaster MySUPER--secret-0123passw0rd
# 指定多少毫秒之后 主节点没有应答哨兵sentinel 此时 哨兵主观上认为主节点下线 默认30秒
# sentinel down-after-milliseconds <master-name> <milliseconds>
sentinel down-after-milliseconds mymaster 30000
# 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行 同步,这个数字越小,完成failover所需的时间就越长,但是如果这个数字越大,就意味着越 多的slave因为replication而不可用。可以通过将这个值设为 1 来保证每次只有一个slave 处于不能处理命令请求的状态。
# sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1
# 故障转移的超时时间 failover-timeout 可以用在以下这些方面:
#1. 同一个sentinel对同一个master两次failover之间的间隔时间。
#2. 当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。
#3.当想要取消一个正在进行的failover所需要的时间。
#4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时,slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
# 默认三分钟
# sentinel failover-timeout <master-name> <milliseconds>
sentinel failover-timeout mymaster 180000
# SCRIPTS EXECUTION
#配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。
#对于脚本的运行结果有以下规则:
#若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
#若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
#如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
#一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。
#通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等),将会去调用这个脚本,这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信息。调用该脚本时,将传给脚本两个参数,一个是事件的类型,一个是事件的描述。如果sentinel.conf配置文件中配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无法正常启动成功。
#通知脚本
# shell编程
# sentinel notification-script <master-name> <script-path>
sentinel notification-script mymaster /var/redis/notify.sh
# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
# <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
# 目前<state>总是“failover”,
# <role>是“leader”或者“observer”中的一个。
# 参数 from-ip, from-port, to-ip, to-port是用来和旧的master和新的master(即旧的slave)通信的
# 这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh # 一般都是由运维来配置!
社会目前不缺初级和中级程序猿,缺少的是那些高级的
16. Redis缓存穿透和雪崩(面试高频)
服务的高可用问题
在这里我们不会分析解决方案的底层
Redis缓存的使用,极大的提升了应用程序的性能和效率,特别是数据查询方面。但同时,它也带来了一些问题。其中,最要害的问题,就是数据的一致性问题,从严格意义上讲,这个问题无解。如果对数据的一致性要求很高,那么就不能使用缓存。
另外的一些典型问题就是,缓存穿透、缓存雪崩和缓存击穿。目前,业界也都有比较流行的解决方案。
缓存穿透(查不到)
缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(秒杀请求),于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了缓存穿透。
布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃,从而避免了对底层存储系统的查询压力;
缓存空对象
当存储层不命中后,即使返回的空对象也将其缓存起来,同时会设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后端数据源;
但是这种方法会存在两个问题:
1、如果空值能够被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键;
2、即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于需要保持一致性的业务会有影响。
缓存击穿(量太大,缓存过期)
微博热搜导致服务器宕机
这里需要注意和缓存击穿的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。
当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导使数据库瞬间压力过大。
设置热点数据永不过期
从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题。
加互斥锁
分布式锁∶使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。
缓存雪崩
缓存雪崩,是指在某一个时间段,缓存集中过期失效。Redis宕机
产生雪崩的原因之一,比如在写本文的时候,马上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓存,假设缓存一个小时。那么到了凌晨一点钟的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂掉的情况。
其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然形成的缓存雪崩,一定是在某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。
双十一:停掉一些服务,(保证高可用)
redis高可用
这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis,这样一台挂掉之后其他的还可以继续工作,其实就是搭建的集群。(异地多活!)
限流降级(SpringCloud讲解过)
这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。
数据预热
数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间点尽量均匀。