HDFS集群搭建流程简介

a)准备工作:四台linux机器、
装好jdk(一般是压缩包以.tar.gz为后缀)、
配好ip地址(vi /etc/sysconfig/network-scripts/ifcfg-eth0),主机名(vi /etc/sysconfig/network),域名映射(vi /etc/hosts),
关闭防火墙(chkconfig iptables off,开机关闭防火墙)、

b)上传安装包(hadoop-2.8.1.tar.gz)到模板机(Linux01)

使用Filezilla程序将压缩包上传到VM workstation Pro 中的模板机(Linux01)

c)解压到家目录下apps文件夹

解压文件:tar -zvf hadoop-2.8.1.tar.gz -C apps/

d)修改配置文件
[root@LINUX01 hadoop]# vi hadoop.env.sh
export JAVA_HOME=/root/apps/jdk.1.8.1_141/
[root@LINUX01 hadoop]# vi hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.rpc-address</name>
<value>LINUX01:9000</value>
</property>

<property>
<name>dfs.namenode.name.dir</name>
<value>/root/hdpdata/name/</value>
</property>

<property>
<name>dfs.namenode.secondary.http-address</name>
<value>LINUX02:50090</value>
</property>

<property>
<name>dfs.datanode.data.dir</name>
<value>/root/hdpdata/data/</value>
</property>

</configuration>
----->修改hdfs配置文件,包括namenode/secondary namenode/datanode
e)将模板机的安装包使用scp复制给其他机器
scp -r hadoop-2.8.1/ LINUX02:/root/apps/
scp -r hadoop-2.8.1/ LINUX03:/root/apps/
scp -r hadoop-2.8.1/ LINUX04:/root/apps/
f)把namenode的元数据目录初始化
[root@LINUX01 hadoop2.8.1]# bin /hadoop namenode -format
g)一般对于数量众多的机器采用一个批启动脚本
[root@LINUX01 ~]# vi hdfsmg.sh
#!/bin/bash
op=$1
echo "${op}ing namenode on LINUX01"
ssh LINUX01 "/root/app/hadoop-2.8.1/sbin/hadoop-daemon.sh $op namenode"

for i in {1..4}
do
echo "${op}ing datanode on LINUX0$i"
ssh LINUX0$i "/root/app/hadoop-2.8.1/sbin/hadoop-daemon.sh $op datanode"
done
h)hadoop安装包内置了上述脚本,但是需要我们手动修改datanode机器,将datanode列入一个/etc/hadoop/slaves文件
[root@LINUX01 hadoop]# vi slaves
LINUX01
LINUX02
LINUX03
LINUX04
i)[root@LINUX01 hadoop]# sbin/start-dfs.sh启动
[root@LINUX01 hadoop]# sbin/stop-dfs.sh停止

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值