Ubuntu18.04 部署Hadoop集群

本文详细介绍在Ubuntu18.04环境下搭建Hadoop集群的过程,包括Hadoop的安装、环境变量配置、各类配置文件的设置,如hadoop-env.sh、yarn-env.sh、core-site.xml等,以及格式化namenode和启动集群的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. Hadoop集群部署

下载地址:https://hadoop.apache.org/releases.html

集群配置

master192.168.0.130namenoderesourcemanager
slave1192.168.0.131datanodenodemanager
slave2192.168.0.132datanodenodemanager

1.1 安装Hadoop

解压 hadoop-3.1.2.tar.gz到 /opt 目录

sudo tar -zxvf hadoop-3.1.2.tar.gz /opt
sudo mv /opt/hadoop-3.1.2 /opt/hadoop

修改环境变量

sudo gedit /etc/profile
export HADOOP_HOME=/opt/hadoop

export PATH=$HADOOP_HOME/bin:$PATH

刷新环境变量

source /etc/profile

1.2 配置Hadoop

1.2.1 配置 hadoop-env.sh

/opt/hadoop/etc/hadoop

添加JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/java-8-oracle

1.2.2 配置 yarn-env.sh

添加JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/java-8-oracle

1.2.3 配置 core-site.xml

<configuration>
        <!-- 指定hdfs的nameservice为ns1 -->
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:9000</value>
        </property>
        <!-- 指定hadoop临时目录,自行创建 -->
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/data/hadoop/tmp</value>
        </property>

	<property>
	      <name>hadoop.proxyuser.hadoop.groups</name>
	      <value>*</value>
	      <description>Allow the superuser oozie to impersonate any members of the group group1 and group2</description>
	 </property>

	 <property>
	      <name>hadoop.proxyuser.hadoop.hosts</name>
	      <value>master,slave1,slave2</value>
	      <description>The superuser can connect only from host1 and host2 to impersonate a user</description>
	  </property>
</configuration>

1.2.4 配置 hdfs-site.xml

<configuration>
    <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>master:9001</value>
    </property>
    <property>
      <name>dfs.replication</name>
      <value>2</value>
    </property>
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/data/hadoop/hdfs/name</value>
    </property>
    <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/data/hadoop/hdfs/data</value>
    </property>
</configuration>

1.2.5 配置 mapred-site.xml

<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
          <name>mapreduce.jobhistory.address</name>
          <value>master:10020</value>
  </property>
  <property>
          <name>mapreduce.jobhistory.address</name>
          <value>master:19888</value>
  </property>
</configuration>

1.2.6 配置yarn-site.xml

<configuration>
        <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
        </property>
        <property>                                                                
               <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
               <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
               <name>yarn.resourcemanager.address</name>
               <value>master:8032</value>
       </property>
       <property>
               <name>yarn.resourcemanager.scheduler.address</name>
               <value>master:8030</value>
       </property>
       <property>
               <name>yarn.resourcemanager.resource-tracker.address</name>
               <value>master:8031</value>
      </property>
      <property>
               <name>yarn.resourcemanager.admin.address</name>
               <value>master:8033</value>
       </property>
       <property>
               <name>yarn.resourcemanager.webapp.address</name>
               <value>master:8088</value>
       </property>
</configuration>

1.2.7 配置worker

slave1
slave2

1.2.8 将上述所有文件复制一份到各节点

1.2.9 格式化namenode(初始化)

cd /opt/hadoop/bin/
./hdfs namenode -format

1.2.10 启动Hadoop集群

cd /opt/hadoop/sbin/
./ start-dfs.sh
./start-yarn.sh

启动成功,访问http://master:8088/cluster

在这里插入图片描述

访问 http://master:9870/
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值