搭建全分布式HADOOP集群

1、安装jdk
(1)解压缩jdk包

tar xzvf jdk-8u211-linux-x64.tar.gz

 

 (2)配置JAVA环境变量并验证jdk是否安装成功

    vi ~/.bashrc  (~ 表示当前用户目录 如 /home/yong)

export JAVA_HOME=/home/yong/jdk-8u211-linux-x64/jdk1.8.0_211
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin

source ~/.bashrc

java -version
javac -version

 2、安装hadoop并验证hadoop是否安装成功

tar xzvf hadoop-3.1.2.tar.gz

vi ~/.bashrc
export HADOOP_HOME=/home/yong/hadoop-3.1.2
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

hadoop version

hdfs

hadoop

 3、修改每个节点的IP(每个IP取别名,所有机器都要处理,ip和别名直接间隔type键)

修改 /etc/hostname 文件

 127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

 

4、SSH免密登录

 ssh-keygen -t rsa -N ""   --生产公钥
 ssh-copy-id -i ~/.ssh/id_rsa.pub yong@master
 ssh-copy-id -i ~/.ssh/id_rsa.pub yong@node1
 ssh-copy-id -i ~/.ssh/id_rsa.pub yong@node2

ping master

ping node1

ping node2

 

 5、配置master节点

cd $HADOOP_HOME
mkdir my_config
vi ~/.bashrc
export HADOOP_CONF_DIR=$HADOOP_HOME/my_config
export HADOOP_LOG_DIR=$HADOOP_HOME/my_log
source ~/.bashrc
cd $HADOOP_CONF_DIR
cp -r $HADOOP_HOME/etc/hadoop/* .

 (1)修改core-site.xml文件

 <property>
    <name>fs.defaultFS</name>
    <value>hdfs://mymaster/</value>   
  </property>
 

 (2)修改 hdfs-site.xml文件

  <property>
    <name>dfs.replication</name>
    <value>3</value>
  </property>

(3)修改mapred-site.xml文件

 <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>

 (4)修改yarn-site.xml文件

<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>

 6、配置worker节点

cd $HADOOP_HOME
 mkdir my_config
 mkdir my_log
vi ~/.bashrc

export HADOOP_CONF_DIR=$HADOOP_HOME/my_config
export HADOOP_LOG_DIR=$HADOOP_HOME/my_log

 7、在master上将信息远程复制到node1 和node2上

scp    $HADOOP_HOME/my_config/*   yong@node1:$HADOOP_HOME/my_config/
scp    $HADOOP_HOME/my_config/*   yong@node2:$HADOOP_HOME/my_config/

 8、关闭防火墙(所有节点都有处理)

sudo systemctl stop firewalld.service
sudo systemctl disable firewalld.service

--查看防火墙状态

systemctl status firewalld

 9、在hdfs中建立文件 或者上传文件

[yong@192 ~]$ echo '2020-1-17'>>/aa.txt
[yong@192 ~]$ hdfs dfs -put -f aa.txt /
到以下网址中查看图形化界面

http://192.168.170.132:9870/explorer.html#/

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值