Centos 7 Hadoop简单集群搭建

第一步

需要节点数分析:NameNode 1
DataNode 3 (可修改)
需要四台服务器

第二步

这里使用虚拟软件Vmware操作;
克隆4台虚拟机

  1. 分别配置ip(vim /etc/sysconfig/network-scripts/ifcfg-ens37)
  2. 配置主机名(vim /etc/hostname)
  3. 配置iP 和主机名映射(vim /etc/hosts)

这里在解释一下这三步
1 配置的ifcfg-ens37 文件是原本没有的 ,虚拟机配置了双网卡后,新增的网卡名字为ens37 (应该会叫这个),原本的第一个网卡叫ifcfg-ens33,该路径下应该只有ens33的配置文件,这里复制该文件在该目录下,并改名字为ifcfg-ens37,vi 编辑该文件 把所有名字为ens33的地方都改为ens37把uuid大胆删除,把BOOTPROTO=pc…=>>BOOTPROTO=static,新增属性IPADDR=(IP,之后访问的ip地址) 之后保存退出!
2 配置主机名可以在之后要用到该iP 的场景下,用主机名代替,比如192.168.0.1:9000,配置好后可以 aa:9000;当然想要执行成功还要映射
3 进入 hosts文件 根据里面已有的格式 映射好 ip 自定义主机名;把所有即将用到的节点都映射一遍

4 接下来基本上一抹一样的操作每台机器上都配置一遍 配置完都reboot重启一下

第三步

1.下载hadoop的tar.gz包 解压到指定目录: tar -zxvf hadoop.tar.gz -C /指定目录
2.配置/etc/profile 文件 配置HADOOP_HOME=(解压目录),在已有的path属性后加上:冒号$ HADOOP_HOME/bin冒号$HADOOP_HOME/sbin
3配置hadoop-evn.sh ,在解压目录下的/etc/hadoop/中 编辑javahome 为绝对路径(安装路径,想不到的话就 命令:echo $ JAVA_HOME,复制黏贴)
4.配置core-site.xml文件 配置namenode 的Ip
5.配置slavers文件 把所有DataNode的主机名都放入

第四步: 每台机器上相同配置

第五步 执行操作 hdfs namenode -format

第六步 启动:任意位置start -dfs.sh,轮流输入密码 启动完成

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值