HDFS部分:hadoop集群的启动步骤(启动流程)

本文详细介绍了启动Hadoop HDFS高可用(HA)集群的步骤,包括启动mysql(用于Hive数据库)、Zookeeper、JournalNode、NameNode格式化与启动、ZKFC格式化、start-dfs.sh脚本执行以及YARN HA集群的启动。在启动过程中,强调了验证各组件状态的重要性,如web UI和进程检查,并提示了解决连接拒绝问题的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.启动mysql(作为hive的数据库,没有的话可以不用启动)

执行service mysql start

验证service mysql status

2.启动hdfs ha集群

(1)启动zookeeper

启动 (每个节点都要执行)zkServer.sh start

验证 是否启动成功(每个节点都要执行)zkServer.sh status

(2)启动journalnode服务(单个启动、多个进程启动)

./sbin/hadoop-daemon.sh start journalnode

hadoop01  ./sbin/hadoop-daemons.sh start journalnode

(3)挑选两个namenode之中的一台来格式化,然后并且启动

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值