VMware Hadoop2.5.2分布式环境搭建

1.  Centos安装

主流虚拟机软件有VirtualBoxVmware workstation,后者为商用软件,主推后者,对于这两款软件的使用,在本文中就不赘述了,不会的同学可以参考https://github.com/judasn/Linux-Tutorial/blob/master/CentOS-Install.mdjudasn整理了很多学习资料,在这向他学习致敬)

2.  虚拟网络配置

使用VMware安装完centos之后我们需要先配置虚拟网络。

编辑à虚拟网络编辑器

230657_oqFU_874878.png

打开

230657_HQKI_874878.png

打开NAT设置如图:

230658_Qb9L_874878.png

把红框中的几个ip地址记录下来,后面会需要用到。需要注意的是数值可能和图中会不一致。

到这一步还需要确认关键步骤,也是最容易忽略的步骤:

第一:网络连接选择NAT模式

打开虚拟机à设置


230659_O7hu_874878.png

第二:启动Vmware相关服务

230700_8MuS_874878.png

到现在为止,就可以启动虚拟机了。

3.  防火墙参数配置

使用root帐号登录虚拟机

关闭SELINUXvi /etc/selinux/config 设置SELINUX=disabled,保存退出

修改IP配置:vi /etc/sysconfig/network-scripts/ifcfg-eth0 修改为如下图:

231156_3kpf_874878.png

注意子网IP,子网掩码,网关IP为前面记录的几个值,HWADDR(本机MAC地址)、UUID值无需修改,

修改主机名称:vi /etc/sysconfig/network  如下图:修改HOSTNAME值为master

231156_uyaC_874878.png

修改hosts映射:vi /etc/hosts,加入了slave1和slave2的映射项,将其内容改为如下图所示。

231157_X6Sd_874878.png

关闭防火墙:/sbin/service iptables stop;chkconfig --level 35 iptables off

重启网络策略:service network restart

到这一步我们就可以使用ssh工具连接到我们的虚拟机了,使用PuttyXshellSecureCRT等工具都行,在这我使用Xshell+Winscp

4. JDK安装

使用SSH工具连接上虚拟机之后,通过FTP上传下载好的jdk安装文件。下载地址:http://pan.baidu.com/s/1pLEJ9bl

先卸载:

查看系统中是否安装了jdk

# rpm -qa | grep jdk

# rpm -qa | grep gcj

可能会出现:

jdk-1.7.0_45-fcs.x86_64

如果存在执行命令进行卸载:

# yum -y remove jdk-1.7.0_45-fcs.x86_64

下载jdk-7u79-linux-x64.rpm

给所有用户添加可执行的权限

# chmod +x  jdk-7u79--linux-x64-rpm.bin

进入文件存放目录

# chmod 777 jdk-7u79--linux-x64-rpm给所有用户添加可执行的权限

安装程序

#rpm -ivh jdk-7u79--linux-x64-rpm

出现安装协议等,按接受即可。

2.设置环境变量。

#vi /etc/profile

在最后面加入

#set java environment

JAVA_HOME=/usr/java/jdk1.7.0_79

CLASSPATH=.:$JAVA_HOME/lib.tools.jar

PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOME CLASSPATH PATH

保存退出。

5.  Hadoop安装配置

下载hadoop2.5.2版本,下载地址:http://mirror.bit.edu.cn/apache/hadoop/common/

# tar -vxf hadoop-2.5.2/  #将下载的hadoop-2.5.2.tar.gz解压

hadoop可以在单节点上以伪分布式的方式运行,Hadoop进程以独立的Java进程来运行,节点即NameNode也是DataNode。需要修改2个配置文件etc/hadoop/core-site.xmletc/hadoop/hdfs-site.xml

# vim hadoop-2.5.2/etc/hadoop/core-site.xml 添加如下内容:

231158_LRrO_874878.png

配置说明:添加hdfs的指定URL路径,由于是伪分布模式,所以配置的是本机IP ,可为真实Iplocalhost

# vim hadoop-2.5.2/etc/hadoop/ hdfs-site.xml 添加如下内容:

231158_ouaZ_874878.png

mapred-site.xml.template重命名为mapred-site.xml,并添加如下内容:

231159_EStN_874878.png

hadoop指定jdk

# vim hadoop-2.5.2/etc/hadoop/hadoop-env.sh

231200_SS0y_874878.png

hadoop加入到环境变量中

# vim ~/.bashrc 添加如下内容:

231200_LmNz_874878.png

到这为止,hadoop就已经配置好了。

6.  克隆虚拟机

使用VMware中克隆功能,复制出另外两台虚拟机,分别命名为slave1slave2。因为克隆出的虚拟机网卡地址已经改变,所以要修改复制出的虚拟机的网卡地址。

网卡地址查看:(注意要启动虚拟机查询)



231201_gVJ3_874878.png

# vim /etc/sysconfig/networking/devices/ifcfg-eth0 将其中HWADDR修改为上面新的网卡地址,同样将IPADDR改为192.168.224.201(slave1)192.168.224.202(slave2)

# vim /etc/sysconfig/network 修改主机名为slave1slave2

# rm -f /etc/udev/rules.d/70-persistent-net.rules  #这步非常关键

# reboot  #重启虚拟机

现在就可以使用SSH工具连接三台虚拟机了

7. 配置SSH

设置免密登录,打开三台虚拟机,登录到master中,执行如下命令:

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

ssh slave1 "mkdir ~/.ssh"

scp ~/.ssh/id_dsa.pub slave1:~/.ssh/authorized_keys

ssh slave2 "mkdir ~/.ssh"

scp ~/.ssh/id_dsa.pub slave2:~/.ssh/authorized_keys

中间可能需要输入密码 ,执行完之后,分别执行如下命令

ssh master

ssh slave1

ssh slave2

不需要再输入密码就对了。

8. 启动Hadoop

首次执行需先执行HDFS格式化命令:bin/hadoop namenode –format(第二次启动就不需要了)

master虚拟机执行sbin/start-all.sh  OK了。

成功启动后,可以通过命令jps看到启动了如下进程,master中存在NameNodeSecondaryNameNode进程,slave1slave2中存在DataNodeNodeManager进程。

004427_MijU_874878.png

004427_XGpO_874878.png

004427_GX1y_874878.png

此时可以访问Web界面http://192.168.138.100:50070来查看Hadoop的信息。


转载于:https://my.oschina.net/fuyung/blog/664739

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值