HDFS HA和Federation

本文详细介绍了如何通过一系列步骤配置由两个集群组成的HDFS联盟,包括启动Zookeeper集群、格式化Zookeeper集群、启动JournalNode等关键操作,并验证了HA功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

cluster1cluster2组成hdfs联盟,cluster1有namenodeA和namenodeB,cluster2有namenodeC和namenodeD。

安装配置好后启动顺序应该为:

1.在所有zookeeper集群节点上启动zookeeper:zkServer.sh start 

2.在cluster1的namenodeA上格式化zookeeper集群:hdfs zkfc -formatZK

3.在cluster2的namenodeC上格式化zookeeper集群:hdfs zkfc -formatZK

4.在所有journal集群节点上启动journal:hadoop-daemon.sh start journalnode

5.cluster1的namenodeA上格式化集群:hdfs namenode -format -clusterId cluster1

6.启动cluster1的namenodeAhadoop-daemon.sh start namenode

7.在cluster1的namenodeB上copynamenodeA的数据的数据:hdfs namenode -bootstrapStandby

8.启动cluster1的namenodeBhadoop-daemon.sh start namenode

9.在cluster2的namenodeC上格式化集群:hdfs namenode -format -clusterId cluster2

10.启动cluster2的namenodeC:hadoop-daemon.sh start namenode

11.在cluster2的namenodeD上copynamenodeC的数据的数据:hdfs namenode -bootstrapStandby

12.启动cluster2的namenodeD:hadoop-daemon.sh start namenode

13.启动所有namenode的zkfc:hadoop-daemon.sh start zkfc

14.启动所有的datanode:hadoop-daemon.sh start datanode

15.在resourcemanager上启动yarn:start-yarn.sh

16.验证HA,杀死active的namenode:kill -9

17.提交作业验证yarn验证。

参考:国内第一篇详细讲解hadoop2的automatic HA+Federation+Yarn配置的教程

转载于:https://my.oschina.net/cjun/blog/498223

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值