ElasticStack - 脑裂(split-brain)

分布式系统中经典的网络问题

假设三个节点node1,node2,node3组成的集群:

1. node1网路出现问题与外界隔离,node2与node3会重新选举master,如node2成为了新master,此时会更新cluster state;

2. node1自己组成集群后,也会更新cluster state;

结果便是同一个集群拥有两个master,且维护不同的cluster state, 网络恢复后无法选择正确的master;

ES的解决措施

ES集群中只能有一个主节点,master节点通过集群中所有节点选举产生,可以被选举的节点成为master-eligible节点,配置如下: -node.master: true

设置可被选举结点数大于等于指定值(这个值一般为可被选举值的一半+1)时才可以选举master,如三个节点可以设置为2:

discovery.zen.minimum_master_nodes=2

可以保证至少有两个节点正常的情况下选举主节点,避免了脑裂发生;

ps:ES可以搭建两个节点的集群,但官方不推荐的原因

通过以上的分析其实我们可以知道,两个节点间发生网络隔离,如果将discovery.zen.minimum_master_nodes

设置为1,那么依然会发生脑裂问题;

设置为2,则ES不会选举主节点向外提供服务,会造成严重后果;

split-brain是指在分布式系统中出现网络分区,导致系统中的节点无法相互通信,从而导致系统的不一致性和数据丢失的问题。在RabbitMQ中,当出现网络分区时,不同分区的节点会认为不属于自身分区的节点已经挂掉,对于队列、交换器、绑定的操作只对当前分区有效,它们各自为政。如果配置了镜像队列,并且涉及到多个网络分区中的节点,每个网络分区都会有一个master节点,这些队列在各个网络分区中是相互独立的。当网络恢复时,网络分区的状态仍然保持,除非采取一些措施来解决它。在RabbitMQ集群中,默认情况下需要手动干预才能恢复网络分区问题。恢复步骤会因节点数量和应用复杂性而有所不同,对于只有两个节点的情况,恢复步骤相对简单。然而,对于多节点和复杂应用的情况,手动恢复会更加复杂和困难,容易导致数据丢失和业务中断。RabbitMQ将队列、交换器和绑定等信息存储在Mnesia数据库中,而与网络分区相关的细节也与Mnesia的行为有关。如果网络中断后恢复正常,Mnesia会记录下发生网络分区的情况,并将其记录在RabbitMQ的服务日志中。 #### 引用[.reference_title] - *1* *2* *3* [RabbitMQ脑裂的模拟和分析](https://blog.youkuaiyun.com/ywq550977359/article/details/123220961)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值