搭建Hadoop分布式开发环境(三)

上一节已经在master主节点上搭建了Hadoop环境,这一节完善Hadoop集群

一. 首先要将/usr/local/hadoop文件拷贝到其他两个子节点(slave1,slave2)

scp -r  /usr/local/hadoop root@slave1:/usr/local
scp -r  /usr/local/hadoop root@slave2:/usr/local

二. 其次要将环境变量文件(.bashrc)拷贝到其他两个子节点(slave1,slave2)

scp -r  ~/.bashrc root@slave1:~/
scp -r  ~/.bashrc root@slave2:~/

三. 分别对两个子节点的.bashrc文件进行source,以让它生效
四. 启动Hadoop
1、第一次启动须格式化namenode:在master上执行以下命令

 hdfs namenode -format

2、启动hdfs集群:start-dfs.sh
3、启动yarn集群:start-yarn.sh
4、使用jps查看主线程以及子线程进程,对比如下

master:namenode、ResourceManager
slave1:datanode、secondarynamenode、NodeManager
slave2:datanode、NodeManager

启动成功后可以通过浏览器访问http://master:50070测试hdfs

这里写图片描述
可以通过浏览器访问http://master:8088测试yarn
这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值