配置Zookeeper组件的步骤和讲解-- 集群模式

本文介绍如何在Zookeeper单机基础上搭建集群,并实现HDFS环境下的自动容灾配置。主要内容包括Zookeeper集群配置步骤、关键文件修改、环境变量分发及HDFS配置调整等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文主要是在Zookeeper单机的条件下,去部署配置集群的zookeeper,
    单机模式的配置是在:
  【https://blog.youkuaiyun.com/xiaozelulu/article/details/81211258】博客下完成。

自动容灾(自动故障转移):需要在HDFS部署环境中配置两个组件:
            1.Zookeeper集群

           2.ZKFC:zookeeper FailoverController process :
            zookeeper是客户端

  zookeeper集群模式 

     

                  1.先在master机器上配置zookeeper的单机模式:【https://blog.youkuaiyun.com/xiaozelulu/article/details/81211258

                  2.修改~/soft/zookeeper/zoo.cfg文件: (现在master主机上)
                               $>gedit   zoo.cfg
                               修改:

 a.[修改zoo.cfg文件]:
    tickTime=2000
	initLimit=10
	syncLimit=5
	dataDir=/home/hyxy/tmp/zookeeper
	clientPort=2181  //客户端提交的端口号
	server.1=master:2888:3888  //服务端提交的端口号
	server.2=slave1:2888:3888
	server.3=slave2:2888:3888
	三个节点都要改!
  
  b.在/home/hyxy/tmp/zookeeper目录下,创建myid文件
        $>echo "1" >> myid    //在master节点
	    $>echo "2" >> myid    //在slave1节点
        $>echo "3" >> myid    //在slave2节点    

                 3.分发到其他节点上:slave1,slave2
                               $>scp -r  zookeeper  hyxy@slave1: ~/soft/
                               $>scp -r  zookeeper   hyxy@slave2: ~/soft /
                 4. 将master配置的  ~/.bash_profile  环境变量    ,分发至slave1,slave2
                              $>scp    ~/.bash_profile   hyxy@slave1:~/ .bash_profile
                              $>scp    ~/.bash_profile   hyxy@slave2:~/.bash_profile  

                 5.第四步之后,需要  分别在slave1,slave2分别 使分发的环境变量生效,
                                $> source  .bash_profile   
                                测试:$> cd $ZOOKEEPER_HOME

                6.修改配置文件:hdfs-site.xml 和 core-site.xml
                 

  【修改hdfs-site.xml】
         <property>
	             <name>dfs.ha.automatic-failover.enabled</name>
	             <value>true</value>   //是否自动容灾
	     </property>

   【修改core-site.xml】
         <property>
	            <name>ha.zookeeper.quorum</name>
	            <value>master:2181,slave1:2181,slave2:2181</value>
	    </property>
	 

            7.将配置文件分发至salve1,slave2节点上
              slave1:          $>scp  hdfs-site.xml  hyxy@slave1:~/soft/hadoop/etc/hadoop_cluster_ha/
                                   $>scp  core-site.xml  hyxy@slave1:~/soft /hadoop/etc/hadoop_cluster_ha/
              slave2:          $>scp  hdfs-site.xml  hyxy@slave2:~/soft/hadoop/etc/hadoop_cluster_ha/
                                   $>scp  core-site.xml  hyxy@slave2:~/soft /hadoop/etc/hadoop_cluster_ha/


    注意:要保证三台机器的hadoop_cluster_ha、环境变量.bash_profile、             ~/soft/zookeeper/conf/zoo.cfg的文件等要一样!!!!

       8.格式化zk
                   $>hdfs zkfc -formatZK
                   说明:将在Zookeeper的树状节点上注册一个Znode
      9..确保zookeeper集群是开启状态:zkServer.sh start
                   $>jps
                               5458 QuorumPeerMain           
     10.start-dfs.sh 
     11.测试:
                  将active的节点kill掉,查看另一个节点状态(master:50070,slave:50070);会发现自动从standby 变成active活动状态,
          说明自动容灾(故障自动转移)zookeeper配置成功。

 

 

 

 


 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值