hdfs安装详细步骤
1、创建一个虚拟机(母机),并安装好centos(minimal)系统
2、从母机克隆出另外3台虚拟机
3、启动这4台虚拟机,登录进去修改(网卡名、ip地址配置、主机名、域名映射)
①改主机名:
vi /etc/sysconfig/network
②改网卡名:
mv /etc/sysconfig/network-scripts/ifcfg-eth0 /etc/sysconfig/network-scripts/ifcfg-eth1
③改IP地址配置:
vi /etc/sysconfig/network-scripts/ifcfg-eth1
onboot=yes
删掉:uuid hdwaddr
ip:
prefix =24 相当于 netmask=255.255.255.0
gateway=虚拟交换机的地址
dns1=虚拟交换机的地址
④ip地址改完后,记得要重启网络服务:
service network restart
⑤关掉防火墙:
service iptables stop
chkconfig iptables off
⑥改域名映射:
vi /etc/hosts
4、可在windows中配置这几台虚拟机的域名映射
c:/windows/system32/drivers/etc/hosts
5、node01上传hadoop安装包,并且解压:
可以将/root/app/hadoop-2.8.3/share中的doc删除,其中hadoop是网页文档
6、在母机上安装jdk
版本必须1.7以上,最好1.8
解压jdk压缩包: tar -zxvf jdk-8u60-linux-x64.gz -C ./apps/
7、配置环境变量:
①java环境变量(JAVA_HOME PATH)
vi /etc/profile
export JAVA_HOME=/root/app/jdk1.8.0_141/
export PATH=$PATH:$JAVA_HOME/bin :/root/app/ 右面的一小段未输入,也是成功的的
source /etc/profile
②验证jdk安装成功:
直接敲命令java -version是否执行成功!
③hadoop环境变量:
export HADOOP_HOME=/root/app/hadoop-2.8.3
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
④执行更新
source /etc/profile
8、将母机上的apps目录scp给所有其他机器
scp -r apps node02:/root/
scp -r apps node03:/root/
scp -r apps node04:/root/
9、将profile环境变量配置文件拷贝给其他所有机器:
scp /etc/profile node02:/etc/
scp /etc/profile node03:/etc/
scp /etc/profile node04:/etc/
验证
source /etc/profile