创建hadoop集群

  1. 新建三台虚拟机

    处理器:1

    内存:2048M

    网络1:共享网络

    网络2:Host-Only网络

    tips:新建虚拟机hadoop1,第一次登陆后直接shutdownnow。

    ​ 利用hadoop1克隆出hadoop2和hadoop3。

    hadoop1hadoop2hadoop3
    hdfsNameNode
    DataNode
    DataNodeSecondaryNameNode
    DataNode
    yarnNodeManagerNodeManagerNodeManager
    ResourceManager
  2. 配置网络信息

    • 修改配置信息

      vi /etc/sysconfig/network-scripts/ifcfg-eth0
      vi /etc/sysconfig/network-scripts/ifcfg-eth1
      ONBOOT=yes
      
    • 重启网络服务

      service network restart
      
  3. 配置IP和主机名字映射关系

    vim /etc/hosts
    10.37.129.18 hadoop1
    10.37.129.19 hadoop2
    10.37.129.20 hadoop3
    
  4. 配置免密登录

    • 生成秘钥对

      ssh-keygen
      然后一直回车键操作
      
    • 查看生成的私钥和公钥

    • 把公钥复制到hadoop1、hadoop2、hadoop3

      ssh-copy-id -i ./id_rsa.pub root@hadoop1
      ssh-copy-id -i ./id_rsa.pub root@hadoop2
      ssh-copy-id -i ./id_rsa.pub root@hadoop3
      

      这里需要注意的是,hadoop1本身也要做免密登录设置。

    • 测试ssh免密登录是否成功

      ssh hadoop1
      ssh hadoop2
      ssh hadoop3
      
  5. 关闭防火墙

    systemctl status firewalld.service
    systemctl stop firewalld.service
    systemctl disable firewalld.service
    
  6. 准备安装包,放在/opt/softwares下面,并解压

    jdk-8u171-linux-x64.tar.gz
    hadoop-2.9.2.tar.gz
    
    tar -zxvf jdk-8u171-linux-x64.tar.gz
    tar -zxvf hadoop-2.9.2.tar.gz
    
  7. 配置~/.bash_profile

    export JAVA_HOME=/opt/softwares/jdk1.8.0_171
    export HADOOP_HOME=/opt/softwares/hadoop-2.9.2
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    
    java -version
    hadoop version
    
  8. 配置/opt/softwares/hadoop-2.9.2/etc/hadoop/core-site.xml

    <configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop1:9000</value>
    </property>
    
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop/tmp/dir</value>
    </property>
    </configuration>
    
  9. 配置/opt/softwares/hadoop-2.9.2/etc/hadoop/hdfs-site.xml

    <configuration>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop3:50090</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    </configuration>
    
  10. 配置/opt/softwares/hadoop-2.9.2/etc/hadoop/slaves

    hadoop1
    hadoop2
    hadoop3
    
  11. 配置/opt/softwares/hadoop-2.9.2/etc/hadoop/mapred-site.xml

    <configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    </configuration>
    
  12. 配置/opt/softwares/hadoop-2.9.2/etc/hadoop/yarn-site.xml

    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop3</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    
    </configuration>
    
  13. 配置/opt/softwares/hadoop-2.9.2/etc/hadoop/hadoop-env.sh

    ​ /opt/softwares/hadoop-2.9.2/etc/hadoop/mapred-env.sh

    ​ /opt/softwares/hadoop-2.9.2/etc/hadoop/yarn-env.sh

    export JAVA_HOME=/opt/softwares/jdk1.8.0_171
    
  14. 在hadoop1上启动hdfs

    /opt/softwares/hadoop-2.9.2/sbin/start-dfs.sh
    

    访问 http://10.37.129.18:50070/dfshealth.html#tab-overview

  15. 在hadoop3上启动yarn

    /opt/softwares/hadoop-2.9.2/sbin/start-yarn.sh
    

    访问 http://10.37.129.20:8088/cluster

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值