实验分析与设计思路

Redis cluster的

redis分布式集群_Redis

redis分布式集群_Redis_02

①:所有Redis节点使用(PING机制)互联

②:集群中某个节点的是否失效,是由整个集群中超过半数的节点监测都失效,才能算真正的失效

③:客户端不需要proxy即可直接连接redis,应用程序中需要配置有全部的redis服务器IP

④:redis cluster把所有的redis node 平均映射到 0-16383个槽位slot上,读与需要到指定的redis node上进行操作,因此有多少redis node相当于redis 并发扩展了多少倍,每个redis node 承担16384/N个槽位

⑤:Redis cluster预先分配16384slot,槽位,当需要在redis集群中写入key-value的时候,会使用RC16key md 16384之后的值,决定将Kev写入值哪个槽位从而决定写入哪一个Redis节点上,从而有效解决单机瓶颈。

详细实验过程

1、实现redis分布式集群部署

①:首先将已有redis服务停服,创建多实例(两个即可)

运行脚本安装redis,安装完成之后,运行创建实例的脚本(需要更改一下脚本内容)

[root@node-1 ~]# bash new_install_redis.sh

redis分布式集群_redis_03

[root@node-2 ~]# vim install_instance.sh 查看脚本内容,用来创建实例6380

redis分布式集群_数据_04

100、110和120都运行脚本,查看端口,端口6379和6380都开启了,实例创建好了

[root@node-2 ~]# bash install_instance.sh

[root@node-2 ~]# ss -tnl

redis分布式集群_Redis_05

redis分布式集群_数据_06

同样10.120也创建实例,操作是一样的操作,可以看到端口已经打开,实例创建成功

redis分布式集群_Redis_07

运行下面命令修改配置文件

sed -i.bak -e '/masterauth/a masterauth 666666' -e '/# cluster-enabled yes/a cluster-enabled yes' -e '/# cluster-config-file nodes-6379.conf/a cluster-config-file nodes_6379.conf' -e '/cluster-require-full-coverage yes/c cluster-require-full-coverage no' /usr/local/redis/etc/redis.conf


sed -i.bak -e '/masterauth/a masterauth 666666' -e '/# cluster-enabled yes/a cluster-enabled yes' -e '/# cluster-config-file nodes-6380.conf/a cluster-config-file nodes_6380.conf' -e '/cluster-require-full-coverage yes/c cluster-require-full-coverage no' /usr/local/redis/etc/redis_6380.conf

redis分布式集群_数据_08

[root@node-1 ~]# cd /usr/local/redis/etc/

redis分布式集群_redis_09

修改完配置文件后三台主机均重启服务

systemctl restart redis redis_6380

redis分布式集群_redis_10

进入redis服务查看集群是否开启 可以看到已经开启了集群

redis-cli -a 666666

INFO cluster

redis分布式集群_Redis_11

定义分布式集群 一主二主三主、一从二从三从,有严格的顺序

[root@node-1 etc]# redis-cli -a 666666 --cluster create 192.168.10.100:6379 192.168.10.110:6379 192.168.10.120:6379 192.168.10.110:6380 192.168.10.120:6380 192.168.10.100:6380 --cluster-replicas 1

redis分布式集群_redis_12

查看集群的工作情况,是否OK

[root@node-1 etc]# redis-cli -a 666666 cluster info

redis分布式集群_数据_13

[root@node-2 ~]# ls /usr/local/redis/data/

redis分布式集群_Redis_14

[root@node-2 ~]# cat /usr/local/redis/data/nodes_6379.conf

redis分布式集群_redis_15

redis-cli -a 666666 -p 6380 info replication 查看主从关系

redis分布式集群_redis_16

查看实例槽位以及对应的从节点

[root@node-2 ~]# redis-cli -a 666666 --cluster info 192.168.10.100:6379

redis分布式集群_数据_17

[root@node-2 ~]# yum -y install pip 安装pip

redis分布式集群_redis_18

[root@node-2 ~]# pip3 install redis-py-cluster 安装redis-py-cluster 模块

redis分布式集群_数据_19

[root@node-2 ~]# python redis_cluster_test.py 运行脚本将数据导入到redis中

redis分布式集群_Redis_20

查看实例槽位以及对应的从节点 可以看到在每个redis中都生成了数据,而且几乎是平均的

redis分布式集群_redis_21

使用DBSIZE分别查看各自的KEY数量

redis分布式集群_Redis_22

查看下指定的槽位号内是否有KEY,有多少KEY ,0为空,1为有key

redis分布式集群_redis_23

模拟故障

[root@node-2 ~]# redis-cli -a 666666 -p 6380 将10.110的6379主节点进行下线

redis分布式集群_数据_24

110的6379主节点对应的从节点为120的6380,登录120的6380查看状态

[root@node-3 ~]# redis-cli -a 666666 -p 6380

127.0.0.1:6380> INFO replication

可以看到120的6380从节点已经变成了主节点

redis分布式集群_Redis_25

重启110的6379实例 可以看到6379已经变成了slave从节点,主节点为120的6380

redis分布式集群_Redis_26


查询数据

在120的6380实例上插入数据

redis分布式集群_Redis_27

在从节点110的6379上进行查看信息,查看失败,因为从节点为了节省空间,所以没有同步到从节点中

redis分布式集群_Redis_28

将120的6380主节点下线

redis分布式集群_redis_29

可以看到110的6379又变回到了主节点

redis分布式集群_Redis_30

在110的6379主节点中查看数据,因为120的6380停服之后就会将数据同步给110的6379,所以110的6379就会有数据

redis分布式集群_Redis_31

实验结果及分析

所有Redis节点使用(PING机制)互联

集群中某个节点的是否失效,是由整个集群中超过半数的节点监测都失效,才能算真正的失效

客户端不需要proxy即可直接连接redis,应用程序中需要配置有全部的redis服务器IP

redis cluster把所有的redis node 平均映射到 0-16383个槽位slot上,读与需要到指定的redis node上进行操作,因此有多少redis node相当于redis 并发扩展了多少倍,每个redis node 承担16384/N个槽位

Redis cluster预先分配16384slot,槽位,当需要在redis集群中写入key-value的时候,会使用RC16key md 16384之后的值,决定将Kev写入值哪个槽位从而决定写入哪一个Redis节点上,从而有效解决单机瓶颈。