hadoop环境配置

本文详细介绍Hadoop集群的配置过程,包括环境变量设置、核心配置文件调整如hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml及yarn-site.xml的参数修改,以及网络配置和防火墙关闭等关键步骤。最后,通过格式化和启动脚本确保Hadoop集群正确运行。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、在hadoop安装目录下/etc/Hadoop下:

  1. hadoop-env.sh配置
    vi hadoop-env.sh
修改配置export JAVA_HOME=/home/liujie/JDK/jdk1.8.0_131
  1. core-site.xml配置
    vi core-site.xml

    <property>
    
        <name>fs.defaultFS</name>
    
        <value>hdfs://rack1:9000/</value>
    
     </property>
    
<property>

     <name>hadoop.tmp.dir</name>

     <value>/home/liujie/hadoop/hadoop-2.7.7/tmp</value>

</property>
  1. hdfs-site.xml配置
    vi hdfs-site.xml
<property>

    <name>dfs.replication</name>

    <value>1</value>

<!-- 1指的是分布副本也可以定义切块的大小,默认是128M  -->
</property>
  1. mapred-site配置
    mv mapred-site.xml.template mapred-site.xml #必须先改名
 vi  mapred-site.xml

<property>

    <name>mapreduce.framework.name</name>

   <value>yarn</value>

</property>
  1. vi yarn-site.xml
<!-- 指定yarn的老大-->

<property>

    <name>yarn.resourcemanager.hostname</name>

    <value>rack1</value>

</property>

<!-- reduce 获取数据的方式 -->

<property>

     <name>yarn.nodemanager.aux-services</name>

     <value>mapreduce_shuffle</value>

</property>
  1. 最后的网络配置工作

关闭防火墙:sudo service iptables stop

  1. 格式化hadoop

把hadoop加到环境变量中

sudo vi /etc/profile

export HADOOP_HOME=hadoop的安装目录

export PATH=$HADOOP_HOME/bin

格式化hadoop namenode -format

  1. 启动/Hadoop/Hadoop-2.7.7/sbin目录下的

start-dfs.sh 启动namenode datanode 和SecondaryNameNode

start-yarn.sh 启动ResourceManager和NodeManager

使用 jps 命令查看是否启动成功。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值