各节点布置
主机IP(需要根据自己网段进行相应修改) | 主机名 | 描述 | HDFS | YARN |
192.168.209.150 | master | 主节点 | NameNode DataNode |
ResourceManager NodeManager |
192.168.209.150 | slave1 | 备用节点 | NameNode DataNode |
ResourceManager NodeManager |
192.168.209.150 | slave2 | 备用节点 | DataNode | ResourceManager NodeManager |
目录
五. Hadoop文件配置 (上传解压Hadoop的步骤省略)
8.分发hadoop文件到:salve1节点slave2节点
六.启动journalnode服务(三个节点都需要执行此步骤)
4.格式化zookeeper(只需要在master节点执行)
一.环境准备
JDK, ZKEEPER ,HADOOP
二 .设置网卡,主机名,密钥,映射
1.设置网卡
首先win+R输入cmd进入命令窗口,然后输入ipconfig获取VMnet8IP信息
输入vi /etc/sysconfig/network-scripts/ifcfg-ens33命令配置网卡
重启网卡:systemctl restart network后拼一下百度验证是否设置成功
2.设置主机名
输入命令:hostnamectl set-hostname master,输入之后需要exit关闭重新登录,重新登录看到主机名为master就表示成功了(我的在此之前已经设置)
3.设置密钥
ssh-keygen rsa
分发密钥到master:
ssh-copy-id -i ~/.ssh/id_rsa.pub master执行完命令之后会需要输入该主机的密码
验证是否分发成功:
4.设置映射
输入命令:vi /etc/hosts
上诉步骤都需要在master,slave1,slave2执行,主机名需要相应修改。
master网卡文件信息:
slave1网卡文件信息:
slave2网卡文件信息:
验证映射是否成功每个节点互相ping(只展示一个)