集群启动

集群首次启动

1、如果zookeeper集群还没有启动的话, 首先把各个zookeeper起来。
/usr/hadoop/zookeeper/bin/zkServer.sh start    (记住所有的zookeeper机器都要启动)
/usr/hadoop/zookeeper/bin/zkServer.sh status (1个leader,n-1个follower)
输入jps,会显示启动进程:QuorumPeerMain

2.、然后在主namenode节点执行如下命令,创建命名空间
/usr/hadoop/hadoop/bin/hdfs zkfc -formatZK  (复制命令,-会变成— 建议手敲)
验证成功
在zookeeper节点执行
/usr/hadoop/zookeeper/bin/zkCli.sh
ls /
ls /hadoop-ha 
quit

3、在每个节点用如下命令启日志程序
/usr/hadoop/hadoop/sbin/hadoop-daemon.sh start journalnode
(每个journalnode节点都需要启动)

4、在主namenode节点用./bin/hadoop namenode -format格式化namenode和journalnode目录
/usr/hadoop/hadoop/bin/hadoop namenode -format

5、在主namenode节点启动namenode进程
/usr/hadoop/hadoop/sbin/hadoop-daemon.sh start namenode

6、在备namenode节点执行第一行命令,把备namenode节点的目录格式化并把元数据从主namenode节点copy过来,并且这个命令不会把journalnode目录再格式化了!然后用第二个命令启动备namenode进程!
scp -r slave146:/usr/hadoop/storage/hadoop/name /usr/hadoop/storage/hadoop
/usr/hadoop/hadoop/sbin/hadoop-daemon.sh start namenode

7、在两个namenode节点都执行以下命令
/usr/hadoop/hadoop/sbin/hadoop-daemon.sh start zkfc

8、启动datanode
在主NameNode上执行如下命令一次性启动所有datanode
/usr/hadoop/hadoop/sbin/hadoop-daemons.sh start datanode

9. 启动Yarn和备ResourceManager
主NameNode节点上
/usr/hadoop/hadoop/sbin/start-yarn.sh
启动备节点
/usr/hadoop/hadoop/sbin/yarn-daemon.sh start resourcemanager

10.启动hbase
从节点上
/usr/hadoop/hbase/bin/hbase-daemon.sh start regionserver
主节点和备用节点上
/usr/hadoop/hbase/bin/hbase-daemon.sh start master
验证安装成功
hbase shell
list

11.启动spark
在主节点上启动整个集群
./sbin/start-all.sh
在备用节点上启动Standby
./sbin/start-master.sh
验证是否成功
jps


集群正常启动

1.首先把各个zookeeper起来并验证
/usr/hadoop/zookeeper/bin/zkServer.sh start    (记住所有的zookeeper机器都要启动)
验证是否成功
/usr/hadoop/zookeeper/bin/zkServer.sh status (1个leader,n-1个follower)

2、在主namenode节点启动所有节点并验证
/usr/hadoop/hadoop/sbin/start-all.sh
验证是否成功
jps

3、启动备节点ResourceManager并验证
/usr/hadoop/hadoop/sbin/yarn-daemon.sh start resourcemanager
验证是否成功
jps

4、启动Hbase并验证
从节点上
/usr/hadoop/hbase/bin/hbase-daemon.sh start regionserver
主节点和备用节点上
/usr/hadoop/hbase/bin/hbase-daemon.sh start master
验证启动成功
hbase shell
list

6.启动Spark并验证
在主节点上启动整个集群
./sbin/start-all.sh
在备用节点上启动Standby
./sbin/start-master.sh
验证是否成功
jps


<think> 我们参考了多个引用,其中引用[2]明确指出启动HBase集群的命令是`start-hbase.sh`,引用[3]也提到在主节点上运行`start-hbase.sh`来启动HBase集群。同时,引用[5]提到可以通过脚本分析了解启动过程,但实际启动命令还是`start-hbase.sh`。 另外,引用[3]还提到了启动前的准备工作,包括修改配置文件、同步时间、启动ZooKeeper和HDFS(start-dfs.sh)等。 因此,启动HBase集群的步骤可以总结为: 1. 确保ZooKeeper集群启动(在ZooKeeper节点上执行`zkServer.sh start`) 2. 确保HDFS集群启动(在主节点上执行`start-dfs.sh`) 3. 在HBase主节点上执行`start-hbase.sh`启动整个HBase集群 同时,引用[2]也提到,执行`start-hbase.sh`的节点会启动HBase Master,而所有节点(在regionservers文件中配置的节点)都会启动RegionServer。 因此,回答用户关于HBase集群启动的方法,应该包括准备工作和启动命令。 </think> ### HBase集群启动方法 启动HBase集群需要按顺序完成以下步骤(参考引用内容[1][2][3]): #### 1. 准备工作 - **确保依赖服务运行**: - Hadoop HDFS集群启动(执行`start-dfs.sh`) - ZooKeeper集群启动(在各节点执行`zkServer.sh start`) - **配置文件检查**: - `hbase-site.xml`中配置ZooKeeper集群地址: ```xml <property> <name>hbase.zookeeper.quorum</name> <value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value> </property> ``` - `regionservers`文件配置所有RegionServer节点: ``` hadoop02 hadoop03 ``` - **时间同步**:确保所有节点时间一致(使用`ntpdate`命令) #### 2. 启动集群 在**HBase Master节点**(如hadoop01)执行: ```bash start-hbase.sh # 启动整个集群 ``` 此命令会: 1. 在当前节点启动HMaster进程 2. 在`regionservers`文件列出的所有节点启动RegionServer 3. 自动启动备份HMaster(若配置HA) #### 3. 验证启动 - **检查进程**: ```bash jps # 主节点应有HMaster,从节点应有HRegionServer ``` - **访问Web UI**: 浏览器打开:`http://hadoop01:60010`(默认端口) - **启动可选服务**: ```bash hbase-daemon.sh start thrift # 启动Thrift服务[^4] ``` #### 4. 停止集群 在**Master节点**执行: ```bash stop-hbase.sh # 需确保Master节点存活[^2] ``` > **注意事项**: > 1. 启动前确保所有节点配置文件一致(可通过`scp`同步) > 2.启动失败,检查`logs/`目录下的日志文件 > 3. 集群规模较大时,可用`hbase-daemons.sh`批量操作节点[^5]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值