Hadoop3.1.3 完全分布式配置

本文详细介绍了Hadoop集群的核心配置过程,包括Hadoop环境变量设置、核心配置文件core-site.xml和hdfs-site.xml的参数调整,以及YARN和MapReduce组件的具体配置方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

(1)配置:hadoop-env.sh

Linux系统中获取JDK的安装路径:

[atguigu@ hadoop101 ~]# echo $JAVA_HOME
/opt/module/jdk1.8.0_212

在hadoop-env.sh文件中修改JAVA_HOME 路径:

export JAVA_HOME=/opt/module/jdk1.8.0_212

(2)核心配置文件

(a)配置core-site.xml

cd $HADOOP_HOME/etc/hadoop
vim core-site.xml

文件内容如下:

    <!-- 指定NameNode的地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop102:8020</value>
    </property>
    <!-- 指定hadoop数据的存储目录  
      官方配置文件中的配置项是hadoop.tmp.dir ,用来指定hadoop数据的存储目录,此次配置用的hadoop.data.dir是自己定义的变量, 因为在hdfs-site.xml中会使用此配置的值来具体指定namenode 和 datanode存储数据的目录-->
    <property>
        <name>hadoop.data.dir</name>
        <value>/opt/module/hadoop-3.1.3/data</value>
    </property>

(3)HDFS配置文件

(a)配置hdfs-site.xml

vim hdfs-site.xml

文件内容如下:

<!-- 指定副本数  -->
<property>
  <name>dfs.replication</name>
  <value>3</value>
</property>

<!-- 指定NameNode数据的存储目录 -->
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file://${hadoop.data.dir}/name</value>
  </property>
 <!-- 指定Datanode数据的存储目录 -->

  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file://${hadoop.data.dir}/data</value>
  </property>
    
   <!-- 指定SecondaryNameNode数据的存储目录 -->

    <property>
    <name>dfs.namenode.checkpoint.dir</name>
    <value>file://${hadoop.data.dir}/namesecondary</value>
  </property>
   
   <!-- 兼容配置,先跳过 -->
    <property>
    <name>dfs.client.datanode-restart.timeout</name>
    <value>30s</value>
  </property>

  <!-- nn web端访问地址-->
<property>
  <name>dfs.namenode.http-address</name>
  <value>hadoop102:9870</value>
</property>
  <!-- 2nn web端访问地址-->

  <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>hadoop104:9868</value>
</property>

(4)YARN配置文件

(a)配置yarn-site.xml

vim yarn-site.xml

文件内容如下:

<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
 <!-- 指定ResourceManager的地址-->
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop103</value>
</property>
<!-- 环境变量的继承 -->
<property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
<!--  取消虚拟内存的限制 -->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>

(5)MapReduce配置文件

配置mapred-site.xml

vim mapred-site.xml

文件内容如下:

<!-- 指定MapReduce程序运行在Yarn上 -->
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>

(6)同步配置文件到其它节点

### 回答1Hadoop3.1.3完全分布式搭建主要涉及以下几个步骤:1.安装并配置Hadoop环境;2.Hadoop集群中安装并配置NameNode和DataNode;3.配置Hadoop客户端;4.启动Hadoop集群;5.Hadoop集群中执行MapReduce作业。 ### 回答2: Hadoop3.1.3是Apache Hadoop的一个版本,它是一个开源的分布式计算框架。要完成Hadoop3.1.3完全分布式搭建,需进行以下几个步骤: 1. 安装Java:Hadoop是用Java编写的,因此首先要确保系统上已安装Java。可以从官方网站下载并安装Java Development Kit(JDK)。 2. 配置SSH:Hadoop需要在集群中的不同节点之间进行通信。为了实现这一点,要在所有节点上设置SSH以确保它们之间的无密码访问。可以使用ssh-keygen命令生成SSH密钥,并使用ssh-copy-id命令将公钥复制到所有节点。 3. 下载和解压缩Hadoop:从Apache官方网站下载Hadoop的最新版本(3.1.3),将其解压缩到一个合适的目录。 4. 配置Hadoop环境变量:编辑bashrc或profile文件,将Hadoop的安装路径添加到系统的环境变量中。使用命令 source ~/.bashrc 或 source ~/.profile 使其生效。 5. 配置Hadoop集群:在Hadoop配置目录中,有一些重要的配置文件需要编辑,如core-site.xml、hdfs-site.xml和yarn-site.xml等。在core-site.xml中,设置Hadoop集群的名称、HDFS的默认文件系统和与之相关的配置。在hdfs-site.xml中,配置HDFS的相关参数,如副本数量、数据块大小等。在yarn-site.xml中,设置YARN的相关配置,如资源管理器的地址和容器的内存限制等。 6. 启动Hadoop集群:在启动集群之前,需要首先格式化NameNode,执行命令 hdfs namenode -format。然后使用命令 start-dfs.sh 启动HDFS服务,使用命令 start-yarn.sh 启动YARN服务。启动成功后,可以使用jps命令检查各个节点上的进程状态。 7. 测试Hadoop集群:在Hadoop集群正常运行后,可以使用Hadoop自带的示例程序进行测试,如使用命令 hadoop jar hadoop-mapreduce-examples.jar pi 10 100 来计算Pi的近似值。 完成上述步骤后,Hadoop3.1.3完全分布式搭建就完成了。通过配置和启动Hadoop集群,可以实现分布式计算和存储,从而处理大规模数据集。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值