Hadoop集群升级HA高可用集群配置

本文详细介绍如何在现有的Hadoop集群基础上配置HA高可用集群。包括修改core-site.xml和hdfs-site.xml等配置文件,启动journalnode服务,格式化HDFS和ZKFC,以及启动NameNode和ResourceManager等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在原有的Hadoop集群的基础上,配置HA高可用集群,简单修改配置文件,具体配置及启动方案如下:
(先停止Hadoop集群)

修改core-site.xml(指定ZK集群,使ZK能够监督master的运行,启动备用节点,我的主节点主机名为Kate,并非master,配置HA的时候改名为apollo,个人喜好,请注意,酌情忽略此细节)
未修改之前的core-site.xml
修改之后:
就是增加一个property,指定ZooKeeper集群的端口号
另外默认的HDFS路径 ,取名为cluster1,hdfs://后面不再跟主机名和端口号
而是设置一个hdfs的nameservice取名为cluster1
因此,改成hdfs://cluster1即可(注意,集群名cluster1在hdfs-site.xml里面也要用到,注意对应)


修改hdfs-site.xml
在原有基础上,修改或添加如下信息:

修改yarn-site.xml
然后配两个主节点的端口:
注意,如果要配
<!--RM1 RM2 is different-->
<property>
    <name>yarn.resourcemanager.ha.id</name>
    <value>rm1</value>
</property>
这个属性的话,两台主节点是不同的(当然可以不配这个属性)


以下为第一次启动时需要做的:
分别在每个节点启动journalnodehadoop-daemon.sh start journalnode
第一次启动的时候要格式化HDFS:hdfs namenode -format
然后格式化ZKFChdfs zkfc -formatZK
这两步操作均要在主节点上配置(不是备用主节点,注意)


启动主节点的NameNode:  hdfs namenode
在备用节点上执行同步数据(格式化):bin/hdfs namenode -bootstrapStandby
在主节点Ctrl+C,关掉NameNode
(启动主节点的NameNode时可以用hadoop-daemon.sh start namenode)
在两个主节点上启动zkfc进程:hadoop-daemon.sh start zkfc


启动1.先启动所有节点的ZooKeeper
     2.在第一台主节点上启动HDFS:start-dfs.sh

第一台主节点如下进程
另一台备用的主节点:
从节点:
       
3.在主节点启动Yarn:start-yarn.sh
这时,主节点的ResourceManager会启动
从节点的NodeManager会启动
4.单独启动备用节点的ResourceManager,在备用节点:
            yarn-daemon.sh start resourcemanager

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值