HA 模式下的 Hadoop+ZooKeeper+HBase 启动关闭管理脚本

本文详细介绍了在HA模式下,如何配置和管理Hadoop、ZooKeeper以及HBase集群。包括集群规划、启动关闭顺序,以及各组件的管理脚本,如ZooKeeper、JournalNode、Hadoop和HBase的启动、关闭脚本,并提供了整个集群的统一管理脚本和配置文件分发管理脚本。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

HA 集群启动与关闭的顺序请参考:http://blog.youkuaiyun.com/u011414200/article/details/50437356


一. 集群介绍

1.1 集群规划

这里写图片描述


1.2 正确的启动顺序

1. ZooKeeper -> Hadoop -> HBase

2. ZooKeeper -> JournalNode (Hadoop) -> NameNode (Hadoop) -> DataNode (Hadoop) -> 主 ResourceManager/NodeManager (Hadoop) -> 备份 ResourceManager (Hadoop) -> ZKFC (Hadoop) -> MapReduce JobHistory (Hadoop) -> 主 Hmaster/HRegionServer (HBase) ->备份 Hmaster (HBase)

关闭集群的顺序则相反



二. 集群管理脚本

笔者的脚本部署在下面的路径下

/usr/local/cluster/cluster-manager

2.1 Slaves 配置文件

1. 文件名:slaves

2. 功能:记录运行 datanode 、nodemanager、HRegionServer、QuorumPeerMain、JournalNode 的节点 IP 地址或主机名

3. 内容

slave51
slave52
slave53

2.2 ZooKeeper 管理脚本

1. 文件名:zk-manager.sh

2. 功能:启动、关闭与重启 ZooKeeper 集群,并可查看运行 ZK 服务的的模式(leader or follower?)

3. 内容

#!/bin/bash

SLAVES=$(cat slaves)

start_time=`date +%s`
for slave in $SLAVES
do
        case $1 in
                start)  ssh -t $slave "source ~/.bash_profile;zkServer.sh start" 1>/dev/null;;
                stop)   ssh -t $slave "source ~/.bash_profile;zkServer.sh stop" 1>/dev/null ;;
                status) ssh -t $slave "source ~/.bash_profile;zkServer.sh status" ;;
                restart)ssh -t $slave "source ~/.bash_profile;zkServer.sh restart" 1>/dev/null;;
                *)      echo -e "Usage: sh zk-manager.sh {start|stop|restart} ^_^\n" && exit ;;
        esac
done
end_time=`date +%s`
elapse_time=$((${end_time}-${start_time}))
echo -e "\n$1 ZooKeeper Server takes ${elapse_time} seconds\n"

2.3 JournalNode 管理脚本

1. 文件名:journal-manager.sh

2. 功能:启动、关闭运行在各个 slaves 上的 JournalNode 进程

3. 内容

#!/bin/bash

start_time=`date +%s`

SLAVES=$(cat slaves)

for slave in $SLAVES
do
        case $1 in
                start)  ssh -t $slave "/usr/local/cluster/hadoop/sbin/hadoop-daemon.sh start journalnode" ;;
                stop)   ssh -t $slave "/usr/local/cluster/hadoop/sbin/hadoop-daemon.sh stop journalnode" ;;
                *)      echo -e "Usage: sh journal-manager.s
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值