mongodb的ReplicaSet实验

本文通过实验详细介绍了MongoDB ReplicaSet在不同环境下的故障演练,包括三机环境和双机环境。实验表明,在Primary宕机时,ReplicaSet能够通过Arbiter实现自动故障切换,确保集群的高可用性。但在双机环境下,当Primary和Secondary同时出现问题时,需要至少三台机器才能保证持续服务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

mongodb的ReplicaSet实验

本文验证了:要保证mongodb RS集群在宕机情况下的可用性,至少需要三台机器。

目的

本实验的ReplicaSet集群为 1*Primary, 1*Secondary, n*Arbiter

目的是为了验证:

  1. 三机环境下,Primary宕机后,是否能通过Aribiter进行auto-failover。

  2. 两台机器环境下,能否保证一台机器宕机后,仍然保证可用。一台Primary,一台Secondary+Arbiter。或者一台Primary+Arbiter,一台Secondary+Arbiter。

三机环境搭建

使用docker快速生成三个容器模拟三台主机。

 

NamePortRole(Experted)
mongo-c137017Primary
mongo-c247017Secondary
mongo-c357017Arbiter

在发生故障,且mongo数据节点不能够自身选举出Primary的时候,就需要Arbiter节点介入了,(否则不介入)。

集群配置

添加REPLSETNAME

修改三个节点中的配置文件

 replication:
   replSetName: rep1

重启各个节点

初始化集群

获取各个节点docker容器IP(docker inspect),这里采用宿主机IP和映射端口。

通过客户端连接到任何一个节点。

 ./mongo

输入:

 rs.initiate({
     _id:"rep1",members:[
         {_id:1,host:"192.16.8.105:37017", priority:10},
         {_id:2,host:"192.16.8.105:47017", priority:5},
         {_id:3,host:"192.16.8.105:57017", arbiterOnly:true}
     ]
 })

之后将会返回响应:

 { "ok" : 1 }

通过rs.status();命令可以看到集群状态

故障演练

通过直接关闭Primary所在的容器,来观察Secondary的角色变化。

关闭PRIMARY

 docker stop mongo-c1

关闭后通过rs.status()查看,发现mongo已经auto-failover了。

重新启动PRIMARY容器

发现该节点作为Secondary加入。

等待一会,发现该节点又变为了Primary。

关闭SECONDARY

可正常工作。

关闭ARBITER

节点状态无影响,可正常工作。

关闭SECONDARY和ARBITER

原Primary变为Secondary,无法正常工作。

 

双机环境(1)(1+1)方案

通过docker,重新生成两个容器模拟两个主机。

NamePortRole(Experted)
mongo-c137017Primary
mongo-c247017Secondary
mongo-c257017Arbiter

也就是在Secondary机器上运行一个Aribiter实例即可。

 docker run -d -p 37017:27017 --name mongo-c1 tung/mongo:1.0
 docker run -d -p 47017:27017 -p 57017:27018 --name mongo-c2 tung/mongo:1.0

设置replSetName

 replication:
     replSetName: rep1

配置Arbiter节点

复制一份mongod.conf为mongod2.conf 修改里面的日志路径,数据路径(预先mkdir),端口27018,pid文件路径

 /opt/mongo/bin/mongod -f /opt/mongod.conf
 /opt/mongo/bin/mongod -f /opt/mongod2.conf

故障演练

关闭SECONDARY+ARBITER

关闭后,Primary变为了Secondary。无法工作。

关闭PRIMARY

能够进行auto-failover,可正常工作。

 

双机环境(1+1)(1+1)方案

1Primary 1Secondary 2*Arbiter

NamePortRole(Experted)
mongo-c127017Primary
mongo-c137017Arbiter
mongo-c247017Secondary
mongo-c257017Arbiter

初始化命令:

 rs.initiate({
     _id:"rep1",members:[
         {_id:1,host:"192.16.8.105:27017", priority:10},
         {_id:2,host:"192.16.8.105:37017", arbiterOnly:true},
         {_id:3,host:"192.16.8.105:47017", priority:5},
         {_id:4,host:"192.16.8.105:57017", arbiterOnly:true}
     ]
 })

关闭Arbiter

关闭一个Arbiter, 数据节点没有影响,可正常工作。 再关闭一个Arbiter,也就是关闭所有Arbiter, 数据节点全部变为Secondary,无法正常工作。

关闭Secondary

没有影响,可正常工作。

关闭Secondary+Arbiter

Primary变为Secondary.哪怕仍然有一个Arbiter存活,无法正常工作。

关闭Primary

Secondary进行auto-failover。可正常工作。

 

结论

在双机环境下,应该无法保证宕机时的HA。至少需要三机。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值