centos7.4服务器搭建hadoop-2.7.3集群

配置之前,需要配置非root用户的免密登陆

说明: 集群规划: 192.168.12.148
192.168.12.149
192.168.12.150
主节点是: 192.168.12.148
从节点是: 192.168.12.149
192.168.12.150
前期配置: 所有节点都增加ip和机器名称的映射关系,且3个节点可以相互ping通。

vim /etc/hosts

加上

192.168.12.148 cloud31
192.168.12.149 cloud32
192.168.12.150 cloud33

1.1配置 Hadoop
1.1.1修改配置
1、XML文件配置,在主节点执行以下命令:

cd   /home/cloud/platform/hadoop-2.7.3/etc/hadoop
下面所有的配置文件都在/home/cloud/platform/hadoop-2.7.3/etc/hadoop下面
  1. vim core-site.xml文件
    加入
<configuration>
<property>
                <name>fs.defaultFS</name>
                <value>hdfs://cloud31:9000</value>
        </property>
        <property>
                <name>io.file.buffer.size</name>
                <value>131072</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/home/cloud/platform/hadoop-2.7.3/dfs/tmp</value>
        </property>
</configuration>

dfs/tmp不需要自己建文件夹 , 需要初始化 , 最后配置好了初始化
在这里插入图片描述
修改 hdfs://cloud31:9000 #主节点用户名cloud31
修改 /home/cloud/platform/hadoop-2.7.3/dfs/tmp #hadoop/dfs/tmp的路径,
dfs/tmp不需要自己建文件夹 , 需要初始化 , 最后配置好了初始化

2)vim hdfs-site.xml文件
加入

<configuration>
<property>
                <name>dfs.namenode.name.dir</name>
                <value>/home/cloud/platform/hadoop-2.7.3/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/home/cloud/platform/hadoop-2.7.3/dfs/data</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property>
        <property>
                <name>dfs.webhdfs.enabled</name>
                <value>true</value>
        </property>

</configuration>

data和name目录不需要自己新建
在这里插入图片描述
3)vim yarn-site.xml文件
加入

<!-- Site specific YARN configuration properties -->
<property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>

        <property>
                <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>

       <property>
               <name>yarn.nodemanager.resource.memory-mb</name>
               <value>65536</value>
       </property>

       <property>
               <name>yarn.nodemanager.resource.cpu-vcores</name>
               <value>32</value>
       </property>

       <property>
               <name>yarn.scheduler.maximum-allocation-mb</name>
               <value>37768</value>
       </property>

</configuration>

在这里插入图片描述
4)vim hadoop-env.sh
修改如下内容:

export JAVA_HOME=/usr/java/jdk1.8.0_112

在这里插入图片描述
5)vim yarn-env.sh
在这里插入图片描述

  1. vim slaves
    在文件中配置从节点IP,每个节点IP单独占一行,格式要求及示例如下:
    格式要求 示例
    cloud31
    cloud32
    cloud33
    保存并关闭文件。
    在这里插入图片描述
    7)、配置文件分发:将hadoop文件夹从主节点上分发至集群中每一个从节点(在主节点执行)。**
cd  /home/cloud/platform

scp -r hadoop 从节点IP:/bdp_softwares/(将主节点配置好的hadoop分发给另外两台从节点服务器上)

示例:scp -r /home/cloud/platform/hadoop2.7.3  cloud@192.168.12.149:/home/cloud/platform/

上述分发命令针对每一个从节点都需要执行一遍。

  1. 主节点初始化(去主节点上执行,必须要先scp,然后在初始化)
cd  /hadoop2.7.3
./bin/hdfs namenode -format

**

2.启动验证hadoop
2.1启动hadoop

cd   /home/cloud/platform/hadoop2.7.3
./sbin/start-dfs.sh

2.2验证Hadoop

1)在主节点输入jps命令,可看到以下两个进程:
NameNode
SecondaryNameNode
2)在每一个从节点输入jps命令,可看到以下一个进程:
DataNode
3)或者去页面上输入  主节点ip:50070 页面上有东西就ok了
若以上命令都正常,说明Hadoop安装成功。

2.3停止

cd /bdp_softwares/hadoop
./sbin/stop-dfs.sh

欢迎大家留下您的宝贵意见 , 一起讨论

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值