文章目录
Docker精髓
容器卷Volumes
Dockerfile
什么是 Dockerfile?
Dockerfile 是一个用来构建镜像的文本文件,文本内容包含了**一条条构建镜像所需的指令和说明**。
使用 Dockerfile 定制镜像
这里仅讲解如何运行 Dockerfile 文件来定制一个镜像,具体 Dockerfile 文件内指令详解,将在下一节中介绍,这里你只要知道构建的流程即可。
1、下面以定制一个 nginx 镜像(构建好的镜像内会有一个 /usr/share/nginx/html/index.html 文件)
在一个空目录下,新建一个名为 Dockerfile 文件,并在文件内添加以下内容:
FROM nginx
RUN echo '这是一个本地构建的nginx镜像' > /usr/share/nginx/html/index.html
2、FROM 和 RUN 指令的作用
FROM:定制的镜像都是基于 FROM 的镜像,这里的 nginx 就是定制需要的基础镜像。后续的操作都是基于 nginx。
RUN:用于执行后面跟着的命令行命令。有以下俩种格式:
shell 格式:
RUN <命令行命令>
# <命令行命令> 等同于,在终端操作的 shell 命令。
exec 格式:
RUN ["可执行文件", "参数1", "参数2"]
# 例如:
# RUN ["./test.php", "dev", "offline"] 等价于 RUN ./test.php dev offline
注意:Dockerfile 的指令每执行一次都会在 docker 上新建一层。一个接一个地将每条指令的结果提交给一个新的镜像;所以过多无意义的层,会造成镜像膨胀过大。上一条指令不会对下一条指令产生任何影响。例如:
FROM centos
RUN yum install wget
RUN wget -O redis.tar.gz "http://download.redis.io/releases/redis-5.0.3.tar.gz"
RUN tar -xvf redis.tar.gz
以上执行会创建 3 层镜像。可简化为以下格式:
FROM centos
RUN yum install wget \
&& wget -O redis.tar.gz "http://download.redis.io/releases/redis-5.0.3.tar.gz" \
&& tar -xvf redis.tar.gz
如上,以 && 符号连接命令,这样执行后,只会创建 1 层镜像。
开始构建镜像
在 Dockerfile 文件的存放目录下,执行构建动作。
以下示例,通过目录下的 Dockerfile 构建一个 nginx:v3(镜像名称:镜像标签)。
注:最后的 . 代表本次执行的上下文路径,下一节会介绍。
$ docker build -t nginx:v3 .
以上显示,说明已经构建成功。
上下文路径
上一节中,有提到指令最后一个 . 是上下文路径,那么什么是上下文路径呢?
$ docker build -t nginx:v3 .
上下文路径,是指 docker 在构建镜像,有时候想要使用到本机的文件(比如复制),docker build 命令得知这个路径后,会将路径下的所有内容打包。
解析:由于 docker 的运行模式是 C/S。我们本机是 C,docker 引擎是 S。实际的构建过程是在 docker 引擎下完成的,所以这个时候无法用到我们本机的文件。这就需要把我们本机的指定目录下的文件一起打包提供给 docker 引擎使用。
如果未说明最后一个参数,那么默认上下文路径就是 Dockerfile 所在的位置。
注意:上下文路径下不要放无用的文件,因为会一起打包发送给 docker 引擎,如果文件过多会造成过程缓慢。
指令详解
请注意,每条指令都是独立运行的,并且会创建一个新映像,提交下一次使用——因此 RUN cd/tmp 不会对下一条指令产生任何影响。
RUN
用于执行在build期间在容器内执行后面跟着的命令行命令
[root@localhost nginx:v3]# docker build -t nginx:v3 .
Sending build context to Docker daemon 2.048kB
Step 1/2 : FROM nginx
latest: Pulling from library/nginx
6ec7b7d162b2: Pull complete
cb420a90068e: Pull complete
2766c0bf2b07: Pull complete
e05167b6a99d: Pull complete
70ac9d795e79: Pull complete
Digest: sha256:4cf620a5c81390ee209398ecc18e5fb9dd0f5155cd82adcbae532fec94006fb9
Status: Downloaded newer image for nginx:latest
---> ae2feff98a0c
Step 2/2 : RUN echo '这是一个本地构建的nginx镜像' > /usr/share/nginx/html/index.html
---> Running in 7cad9d4dc9fa
Removing intermediate container 7cad9d4dc9fa
---> 9975d5d75b31
Successfully built 9975d5d75b31
Successfully tagged nginx:v3
COPY
复制指令,从上下文目录中复制文件或者目录到容器里指定路径。
格式:
COPY [--chown=<user>:<group>] <源路径1>... <目标路径>
COPY [--chown=<user>:<group>] ["<源路径1>",... "<目标路径>"]
[–chown=:]:可选参数,用户改变复制到容器内文件的拥有者和属组。
<源路径>:源文件或者源目录,这里可以是通配符表达式,其通配符规则要满足 Go 的 filepath.Match 规则。例如:
COPY hom* /mydir/
COPY hom?.txt /mydir/
<目标路径>:容器内的指定路径,该路径不用事先建好,路径不存在的话,会自动创建。
ADD
ADD 指令和 COPY 的使用格式一致(同样需求下,官方推荐使用 COPY)。功能也类似,不同之处如下:
- ADD 的优点:在执行 <源文件> 为 tar 压缩文件的话,压缩格式为 gzip, bzip2 以及 xz 的情况下,会自动复制并解压到 <目标路径>。
- ADD 的缺点:在不解压的前提下,无法复制 tar 压缩文件。会令镜像构建缓存失效,从而可能会令镜像构建变得比较缓慢。具体是否使用,可以根据是否需要自动解压来决定。
CMD
类似于 RUN 指令,用于运行程序,但二者运行的时间点不同:
- CMD 在docker run 时运行。
- RUN 是在 docker build。
作用:为启动的容器指定默认要运行的程序,程序运行结束,容器也就结束。CMD 指令指定的程序可被 docker run 命令行参数中指定要运行的程序所覆盖。
注意:如果 Dockerfile 中如果存在多个 CMD 指令,仅最后一个生效。
格式:
CMD <shell 命令>
CMD ["<可执行文件或命令>","<param1>","<param2>",...]
CMD ["<param1>","<param2>",...] # 该写法是为 ENTRYPOINT 指令指定的程序提供默认参数
推荐使用第二种格式,执行过程比较明确。第一种格式实际上在运行的过程中也会自动转换成第二种格式运行,并且默认可执行文件是 sh。
每个Dockfile只能有一条CMD命令,如果指定了多条,只有最后一条会执行。
ENTRYPOINT
类似于 CMD 指令,但其不会被 docker run 的命令行参数指定的指令所覆盖,而且这些命令行参数会被当作参数送给 ENTRYPOINT 指令指定的程序。
但是, 如果运行 docker run 时使用了 –entrypoint 选项,此选项的参数可当作要运行的程序覆盖 ENTRYPOINT 指令指定的程序。
优点:在执行 docker run 的时候可以指定 ENTRYPOINT 运行所需的参数。
注意:如果 Dockerfile 中如果存在多个 ENTRYPOINT 指令,仅最后一个生效。
格式:
ENTRYPOINT ["<executeable>","<param1>","<param2>",...]
可以搭配 CMD 命令使用:一般是变参才会使用 CMD ,这里的 CMD 等于是在给 ENTRYPOINT 传参
,以下示例会提到。
示例:
假设已通过 Dockerfile 构建了 nginx:test 镜像:
FROM nginx
ENTRYPOINT ["nginx", "-c"] # 定参
CMD ["/etc/nginx/nginx.conf"] # 变参
1、不传参运行
$ docker run nginx:test
容器内会默认运行以下命令,启动主进程。
nginx -c /etc/nginx/nginx.conf
2、传参运行
$ docker run nginx:test -c /etc/nginx/new.conf
容器内会默认运行以下命令,启动主进程(/etc/nginx/new.conf:假设容器内已有此文件)
nginx -c /etc/nginx/new.conf
ENV
设置环境变量,定义了环境变量,那么在后续的指令中,就可以使用这个环境变量。
格式:
ENV <key> <value>
ENV <key1>=<value1> <key2>=<value2>...
以下示例设置 NODE_VERSION = 7.2.0 , 在后续的指令中可以通过 $NODE_VERSION 引用:
ENV NODE_VERSION 7.2.0
RUN curl -SLO "https://nodejs.org/dist/v$NODE_VERSION/node-v$NODE_VERSION-linux-x64.tar.xz" \
&& curl -SLO "https://nodejs.org/dist/v$NODE_VERSION/SHASUMS256.txt.asc"
ARG
构建参数,与 ENV 作用一至。不过作用域不一样。ARG 设置的环境变量仅对 Dockerfile 内有效,也就是说只有 docker build 的过程中有效,构建好的镜像内不存在此环境变量。
构建命令 docker build 中可以用 --build-arg <参数名>=<值> 来覆盖。
格式:
ARG <参数名>[=<默认值>]
VOLUME
定义匿名数据卷。在启动容器时忘记挂载数据卷,会自动挂载到匿名卷。
作用:
- 避免重要的数据,因容器重启而丢失,这是非常致命的。
- 避免容器不断变大。
格式:
VOLUME ["<路径1>", "<路径2>"...]
VOLUME <路径>
在启动容器 docker run 的时候,我们可以通过 -v 参数修改挂载点。
EXPOSE
仅仅只是声明端口。
作用:
- 帮助镜像使用者理解这个镜像服务的守护端口,以方便配置映射。
- 在运行时使用随机端口映射时,也就是 docker run -P 时,会自动随机映射 EXPOSE 的端口。
格式:
EXPOSE <端口1> [<端口2>...]
WORKDIR
指定工作目录。用 WORKDIR 指定的工作目录,会在构建镜像的每一层中都存在。(WORKDIR 指定的工作目录,必须是提前创建好的)。
docker build 构建镜像过程中的,每一个 RUN 命令都是新建的一层。只有通过 WORKDIR 创建的目录才会一直存在。
格式:
WORKDIR <工作目录路径>
USER
用于指定执行后续命令的用户和用户组,这边只是切换后续命令执行的用户(用户和用户组必须提前已经存在)。
格式:
USER <用户名>[:<用户组>]
HEALTHCHECK
用于指定某个程序或者指令来监控 docker 容器服务的运行状态。
格式:
HEALTHCHECK [选项] CMD <命令>:设置检查容器健康状况的命令
HEALTHCHECK NONE:如果基础镜像有健康检查指令,使用这行可以屏蔽掉其健康检查指令
HEALTHCHECK [选项] CMD <命令> : 这边 CMD 后面跟随的命令使用,可以参考 CMD 的用法。
ONBUILD
用于延迟构建命令的执行。简单的说,就是 Dockerfile 里用 ONBUILD 指定的命令,在本次构建镜像的过程中不会执行(假设镜像为 test-build)。当有新的 Dockerfile 使用了之前构建的镜像 FROM test-build ,这是执行新镜像的 Dockerfile 构建时候,会执行 test-build 的 Dockerfile 里的 ONBUILD 指定的命令。
格式:
ONBUILD <其它指令>
数据卷VOLUME
指定路径挂载
-v /host_dir:/container_dir
匿名挂载
-v /container_dir
具名挂载
-v dir_name/container_dir
容器数据卷(数据共享)
–volumes-from list Mount volumes from the specified container(s)
Network
容器默认启动模式为桥接: --net bridge
桥接模式互联
veth-pair技术: 是成对出现的一种虚拟网络设备,一端连接着协议栈,一端连接着彼此,数据从一端出,从另一端进。
–link链接
–link list Add link to another containe(单向)
自定义网络互联
[root@localhost ~]# docker network create --help
Usage: docker network create [OPTIONS] NETWORK
Create a network
Options:
--attachable Enable manual container attachment
--aux-address map Auxiliary IPv4 or IPv6 addresses used by Network driver (default map[])
--config-from string The network from which copying the configuration
--config-only Create a configuration only network
-d, --driver string Driver to manage the Network (default "bridge")
--gateway strings IPv4 or IPv6 Gateway for the master subnet
--ingress Create swarm routing-mesh network
--internal Restrict external access to the network
--ip-range strings Allocate container ip from a sub-range
--ipam-driver string IP Address Management Driver (default "default")
--ipam-opt map Set IPAM driver specific options (default map[])
--ipv6 Enable IPv6 networking
--label list Set metadata on a network
-o, --opt map Set driver specific options (default map[])
--scope string Control the network's scope
--subnet strings Subnet in CIDR format that represents a network segment
#创建了一个名为test-net的桥接网
[root@localhost ~]# docker network create -d bridge --subnet 172.18.0.0/16 --gateway 172.18.0.1 test-net
#在宿主机上自动生成对应桥接网卡
[root@localhost ~]# ip addr
4: br-fbfcbd297c60: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 02:42:70:d5:fd:b9 brd ff:ff:ff:ff:ff:ff
inet 172.18.0.1/16 brd 172.18.255.255 scope global br-fbfcbd297c60
valid_lft forever preferred_lft forever
inet6 fe80::42:70ff:fed5:fdb9/64 scope link
valid_lft forever preferred_lft forever
#查看网络元信息
[root@localhost ~]# docker network inspect test-net
[
{
"Name": "test-net",
"Id": "fbfcbd297c600efcb4c326faef1c7b7f0ae9b61c3387b82392f1ee3b77e2037c",
"Created": "2020-12-25T11:52:22.395327446+08:00",
"Scope": "local",
"Driver": "bridge",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "172.18.0.0/16",
"Gateway": "172.18.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {},
"Options": {},
"Labels": {}
}
]
#启动一个容器并指定网络为test-net网络
[root@localhost ~]# docker run -itd --name centos3 --net test-net centos /bin/bash
217d8d42cec707a8dc855b73721bef818d86b1750780f3e74a5f611ab3adb9b0
#查看该容器的网络元信息
[root@localhost ~]# docker inspect 217
"NetworkSettings": {
"Bridge": "",
"SandboxID": "3f6b0432d8d2938d43a412b3c400ecef102bf7f4dd8446ebcaba401bfeb13e75",
"HairpinMode": false,
"LinkLocalIPv6Address": "",
"LinkLocalIPv6PrefixLen": 0,
"Ports": {},
"SandboxKey": "/var/run/docker/netns/3f6b0432d8d2",
"SecondaryIPAddresses": null,
"SecondaryIPv6Addresses": null,
"EndpointID": "",
"Gateway": "",
"GlobalIPv6Address": "",
"GlobalIPv6PrefixLen": 0,
"IPAddress": "",
"IPPrefixLen": 0,
"IPv6Gateway": "",
"MacAddress": "",
"Networks": {
"test-net": {
"IPAMConfig": null,
"Links": null,
"Aliases": [
"217d8d42cec7"
],
"NetworkID": "fbfcbd297c600efcb4c326faef1c7b7f0ae9b61c3387b82392f1ee3b77e2037c",
"EndpointID": "eeea739d25bea19e2c3d1aef4beae9e963bd184500b1ad0677b855b17ce10b27",
"Gateway": "172.18.0.1",
"IPAddress": "172.18.0.2",
"IPPrefixLen": 16,
"IPv6Gateway": "",
"GlobalIPv6Address": "",
"GlobalIPv6PrefixLen": 0,
"MacAddress": "02:42:ac:12:00:02",
"DriverOpts": null
}
}
}
[root@localhost ~]# docker network connect --help
Usage: docker network connect [OPTIONS] NETWORK CONTAINER
Connect a container to a network
Options:
--alias strings Add network-scoped alias for the container
--ip string IPv4 address (e.g., 172.30.100.104)
--ip6 string IPv6 address (e.g., 2001:db8::33)
--link list Add link to another container
--link-local-ip strings Add a link-local address for the container
#将centos2链接到test-net网络
[root@localhost ~]# docker network connect test-net centos2
#centos2结果
"Networks": {
"bridge": {
"IPAMConfig": null,
"Links": null,
"Aliases": null,
"NetworkID": "2f9b761a1c3d77457cd5ed0727f74d3056f1c010f0a6d8ae6bd055450950ecbd",
"EndpointID": "c95f31a65be2c2ed44cb5feef7a8f36663016d0b16d047239fda472571786e92",
"Gateway": "172.17.0.1",
"IPAddress": "172.17.0.2",
"IPPrefixLen": 16,
"IPv6Gateway": "",
"GlobalIPv6Address": "",
"GlobalIPv6PrefixLen": 0,
"MacAddress": "02:42:ac:11:00:02",
"DriverOpts": null
},
"test-net": {
"IPAMConfig": {},
"Links": null,
"Aliases": [
"bfea2e784d0c"
],
"NetworkID": "fbfcbd297c600efcb4c326faef1c7b7f0ae9b61c3387b82392f1ee3b77e2037c",
"EndpointID": "5f75a43a1e3f023da2ae83e5a8572a946bad7f93f4ed8c7657b543e70cf004ff",
"Gateway": "172.18.0.1",
"IPAddress": "172.18.0.3",
"IPPrefixLen": 16,
"IPv6Gateway": "",
"GlobalIPv6Address": "",
"GlobalIPv6PrefixLen": 0,
"MacAddress": "02:42:ac:12:00:03",
"DriverOpts": null
}
}
}
实现redis集群
Docker的轻量级,简洁,方便在集群部署体现地淋漓尽致,之前通过手动在三台服务器搭建,搞了两天才弄得下来(第一次),而且就单个节点的消耗都得300M+内存
基于手动配置创建
基于Docker配置创建
#自定义一个桥接模式的redis网段
docker network create redis -d bridge --subnet 172.38.0.0/16 --gateway 172.38.0.1
[root@localhost redis]# docker network inspect redis
[
{
"Name": "redis",
"Id": "6a1eb42e7963b4f39977b7a68fd70d7f5d0207e0854057138a6660ccdbde53cb",
"Created": "2020-12-28T00:46:24.667069632+08:00",
"Scope": "local",
"Driver": "bridge",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "172.38.0.0/16",
"Gateway": "172.38.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {},
"Options": {},
"Labels": {}
}
]
#创建各个节点的data+conf目录,用于后期挂载和管理
for suffix in $(seq 1 6); \
do \
mkdir -p /mydata/redis/node-${suffix}/conf
touch /mydata/redis/node-${suffix}/conf/redis.conf
cat << EOF >/mydata/redis/node-${suffix}/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.38.0.1${suffix}
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
EOF
done
#批次创建节点
for suffix in $(seq 1 6); \
do \
docker run -p 637${suffix}:6379 -p 1637${suffix}:16379 --name redis-${suffix} \
-v /mydata/redis/node-${suffix}/data:/data \
-v /mydata/redis/node-${suffix}/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.1${suffix} redis:alpine redis-server /etc/redis/redis.conf
done
#进入节点1
docker exec -it reids-1 /bin/sh
#在其中一个节点创建集群
redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 --cluster-replicas 1
#连接集群查看配置
redis-cli -c
[root@localhost redis]# for suffix in $(seq 1 6); \
> do \
> docker run -p 637${suffix}:6379 -p 1637${suffix}:16379 --name redis-${suffix} \
> -v /mydata/redis/node-${suffix}/data:/data \
> -v /mydata/redis/node-${suffix}/conf/redis.conf:/etc/redis/redis.conf \
> -d --net redis --ip 172.38.0.1${suffix} redis:alpine redis-server /etc/redis/redis.conf
> done
980c9320b4798d04774fff10707f195f113fb176b4582e8d9712679ecc7f722b
5530f7f71cbfb96f12384148d7684ef53064f745ff0b26766165262f07b824c3
856b224a8960561d645029f12bf59831e574de99d95659fb297eeb79bba997b6
9730b04a2f839a5281e13b917ce714826aeea242a6225339b80eb98f67e63ecb
734a67a3c1a865f445899fdff228de065f4ab472b765413c53297b87a53b3184
83d6d81b9ece79bc2241c9517cfdd79870bfebae36bc59c76159776fb28d21ba
[root@localhost redis]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
83d6d81b9ece redis:alpine "docker-entrypoint.s…" 20 seconds ago Up 20 seconds 0.0.0.0:6376->6379/tcp, 0.0.0.0:16376->16379/tcp redis-6
734a67a3c1a8 redis:alpine "docker-entrypoint.s…" 20 seconds ago Up 20 seconds 0.0.0.0:6375->6379/tcp, 0.0.0.0:16375->16379/tcp redis-5
9730b04a2f83 redis:alpine "docker-entrypoint.s…" 21 seconds ago Up 20 seconds 0.0.0.0:6374->6379/tcp, 0.0.0.0:16374->16379/tcp redis-4
856b224a8960 redis:alpine "docker-entrypoint.s…" 21 seconds ago Up 21 seconds 0.0.0.0:6373->6379/tcp, 0.0.0.0:16373->16379/tcp redis-3
5530f7f71cbf redis:alpine "docker-entrypoint.s…" 22 seconds ago Up 21 seconds 0.0.0.0:6372->6379/tcp, 0.0.0.0:16372->16379/tcp redis-2
980c9320b479 redis:alpine "docker-entrypoint.s…" 23 seconds ago Up 22 seconds 0.0.0.0:6371->6379/tcp, 0.0.0.0:16371->16379/tcp redis-1
/data # redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 --cluster-replicas 1
>>> Performing hash slots allocation on 6 nodes...
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 172.38.0.15:6379 to 172.38.0.11:6379
Adding replica 172.38.0.16:6379 to 172.38.0.12:6379
Adding replica 172.38.0.14:6379 to 172.38.0.13:6379
M: a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 172.38.0.11:6379
slots:[0-5460] (5461 slots) master
M: 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b 172.38.0.12:6379
slots:[5461-10922] (5462 slots) master
M: 5ac6c6d3f13c6005f37b9905df46a7445787fefb 172.38.0.13:6379
slots:[10923-16383] (5461 slots) master
S: 2285e2019451107634b3ba70087d3f1541241d8f 172.38.0.14:6379
replicates 5ac6c6d3f13c6005f37b9905df46a7445787fefb
S: 3ef69a7395aa26b086c897e472c2ca355802ffd7 172.38.0.15:6379
replicates a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86
S: 048e0ab5d3c410c64559e474bf88e4363af7bd8d 172.38.0.16:6379
replicates 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join
.
>>> Performing Cluster Check (using node 172.38.0.11:6379)
M: a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 172.38.0.11:6379
slots:[0-5460] (5461 slots) master
1 additional replica(s)
S: 048e0ab5d3c410c64559e474bf88e4363af7bd8d 172.38.0.16:6379
slots: (0 slots) slave
replicates 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b
S: 2285e2019451107634b3ba70087d3f1541241d8f 172.38.0.14:6379
slots: (0 slots) slave
replicates 5ac6c6d3f13c6005f37b9905df46a7445787fefb
S: 3ef69a7395aa26b086c897e472c2ca355802ffd7 172.38.0.15:6379
slots: (0 slots) slave
replicates a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86
M: 5ac6c6d3f13c6005f37b9905df46a7445787fefb 172.38.0.13:6379
slots:[10923-16383] (5461 slots) master
1 additional replica(s)
M: 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b 172.38.0.12:6379
slots:[5461-10922] (5462 slots) master
1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
#127.0.0.1:6379> cluster nodes
048e0ab5d3c410c64559e474bf88e4363af7bd8d 172.38.0.16:6379@16379 slave 000fdfa0045b9f42df3ddbb80cde26f96a5efc7b 0 1609088291392 2 connected
2285e2019451107634b3ba70087d3f1541241d8f 172.38.0.14:6379@16379 slave 5ac6c6d3f13c6005f37b9905df46a7445787fefb 0 1609088290388 3 connected
3ef69a7395aa26b086c897e472c2ca355802ffd7 172.38.0.15:6379@16379 slave a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 0 1609088290000 1 connected
5ac6c6d3f13c6005f37b9905df46a7445787fefb 172.38.0.13:6379@16379 master - 0 1609088291000 3 connected 10923-16383
000fdfa0045b9f42df3ddbb80cde26f96a5efc7b 172.38.0.12:6379@16379 master - 0 1609088290086 2 connected 5461-10922
a8a0d5d4d6e6e6d6f03a5b049a6621ae4b392a86 172.38.0.11:6379@16379 myself,master - 0 1609088289000 1 connected 0-5460
#主从切换测试
127.0.0.1:6379> set hello world
OK
127.0.0.1:6379> get hello
"world"
127.0.0.1:6379> exit
[root@localhost redis]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
83d6d81b9ece redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6376->6379/tcp, 0.0.0.0:16376->16379/tcp redis-6
734a67a3c1a8 redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6375->6379/tcp, 0.0.0.0:16375->16379/tcp redis-5
9730b04a2f83 redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6374->6379/tcp, 0.0.0.0:16374->16379/tcp redis-4
856b224a8960 redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6373->6379/tcp, 0.0.0.0:16373->16379/tcp redis-3
5530f7f71cbf redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6372->6379/tcp, 0.0.0.0:16372->16379/tcp redis-2
980c9320b479 redis:alpine "docker-entrypoint.s…" 7 minutes ago Up 7 minutes 0.0.0.0:6371->6379/tcp, 0.0.0.0:16371->16379/tcp redis-1
[root@localhost redis]# docker stop reids-1
Error response from daemon: No such container: reids-1
[root@localhost redis]# docker stop redis-1
redis-1
[root@localhost redis]# docker exec -it redis-2 /bin/sh
/data # redis-cli -c
127.0.0.1:6379> get hello
-> Redirected to slot [866] located at 172.38.0.15:6379
"world"