hadoop2.7.7完全分布式环境搭建

本文详细介绍了如何从零开始搭建Hadoop2.7.7的完全分布式集群,包括安装包准备、主机名及hosts配置、SSH免密码登录设置、环境变量配置、目录创建、核心配置文件修改、集群分发、格式化及启动步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop2.7.7完全分布式集群部署

1、安装包准备
    a、jdk压缩包 jdk-8u221-linux-x64.rpm
    b、hadoop压缩包  hadoop-2.7.7.tar.gz
2、修改主机名
    vi /etc/sysconfig/network
        NETWORKING=yes
        HOSTNAME=hadoop02
        NTPSERVERARGS=iburst
    将其他两台名称修改为 hadoop03、hadoop04。
3、创建hadoop用户
    在三台服务器上都创建hadoop用户,用于hadoop的安装
    groupadd hadoop
    useradd hadoop -g hadoop
4、配置hosts
三台主机的IP、职责、名称分别如下:
IP    职责    名称
192.168.100.22    NameNode SecondaryNameNode ResourceManager    hadoop02
192.168.100.24    DataNode NodeManager    hadoop03
192.168.100.25    DataNode NodeManager    hadoop04
在三台服务器上修改/etc/hosts:
echo "192.168.100.22 hadoop02
192.168.100.24 hadoop03
192.168.100.25 hadoop04" >> /etc/hosts

5、安装jdk
三台服务器全部安装jdk
rpm -ivh jdk-8u221-linux-x64.rpm
配置环境变量
vi /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0_221-amd64
export JAVA_BIN=/usr/java/jdk1.8.0_221-amd64/bin
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar


6、配置ssh
a、使用hadoop用户登录,在hadoop用户下配置ssh,三台服务器都做相同操作
su  - hadoop
 ssh-keygen -t rsa
cd /home/hadoop/.ssh
cp id_rsa.pub authorized_keys
b、将hadoop03和hadoop04服务器id_rsa.pub 文件内容追加到hadoop02服务器authorized_keys文件下
c、将hadoop02和hadoop04服务器id_rsa.pub 文件内容追加到hadoop03服务器authorized_keys文件下
d、将hadoop03和hadoop02服务器id_rsa.pub 文件内容追加到hadoop04服务器authorized_keys文件下

7、安装hadoop
在hadoop02服务器上解压hadoop-2.7.7.tar.gz 到  /home/hadoop/hadoop-2.7.7 下
a、配置环境变量,使用root用户配置hadoop环境变量
vi /etc/profile
#hadoop
export HADOOP_HOME=/home/hadoop/hadoop-2.7.7
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
b、在handoop03和hadoop04服务器上同样增加环境变量

8、创建目录 data、name、tmp目录

mkdir -p /home/hadoop/hadoop-2.7.7/hdfs/data
mkdir -p /home/hadoop/hadoop-2.7.7/hdfs/name
mkdir -p /home/hadoop/hadoop-2.7.7/hdfs/tmp

9、配置文件修改
a、修改  hadoop-env.sh 
vi  hadoop-env.sh 
export JAVA_HOME=/usr/java/jdk1.8.0_221-amd64

b、core-site.xml 
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop02:9000</value>
</property>
<property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadoop-2.7.7/hdfs/tmp</value>
</property>

c、 hdfs-site.xml 
<property>
        <name>fs.replication</name>
<value>3</value>
</property>
<property>
        <name>dfs.name.dir</name>
        <value>/home/hadoop/hadoop-2.7.7/hdfs/name</value>
        </property>
<property>
        <name>dfs.data.dir</name>
        <value>/home/hadoop/hadoop-2.7.7/hdfs/data</value>
</property>
<property>
        <name>dfs.permissions</name>
        <value>false</value>
</property>

d、 mapred-site.xml
<property>                
    <name>mapreduce.framework.name</name>       
    <value>yarn</value>                                        
</property>

e、 yarn-site.xml 
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop02</value>
</property>
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<property>
        <name>yarn.nodemanager.veme-check-enabled</name>
        <value>false</value>
</property>

f、slaves 
hadoop03
hadoop04

10、分发hadoop
scp -r /home/hadoop/hadoop-2.7.7 hadoop03:/home/hadoop/
scp -r /home/hadoop/hadoop-2.7.7 hadoop04:/home/hadoop/

11、格式化namenode
在hadoop02服务器执行 
hdfs namenode -format

12、启动hadoop集群
start-all.sh

13、验证hadoop集群是否启动

[hadoop@hadoop02 etc]$ jps
8771 ResourceManager
13317 Jps
8615 SecondaryNameNode
8415 NameNode

[hadoop@hadoop03 ~]$ jps
6937 DataNode
7052 NodeManager
9965 Jps

[hadoop@hadoop04 ~]$ jps
4276 NodeManager
4159 DataNode
7151 Jps

 

14、hadoop2.7.7官方配置

http://hadoop.apache.org/docs/r2.7.7/hadoop-project-dist/hadoop-common/ClusterSetup.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值