Hadoop2.7.3分布式配置

本文详细介绍了如何在Ubuntu16.04系统上使用VMWare虚拟机搭建Hadoop2.7.3分布式系统,包括环境配置、JDK与Hadoop安装、SSH免密码登录设置、配置文件调整等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近刚做完大数据课程的分布式系统搭建及简单应用,决定写篇博客来记录下,以免后续忘记。

实验环境:

  系统版本:Ubuntu16.04

  虚拟机:VMWare 12 Pro 

  JDK:1.8版本

  Hadoop:Hadoop2.7.3 

  Java IDE:Eclipseneon.2 Release 4.6.2(linux版)

根据电脑性能来决定是否安装虚拟机或者是双系统,我们这里采用虚拟机的方式,注意:每台主机的账户名一定要一样的,就是xxx@yyy的xxx要一样,否则会有hadoop通信问题。

1.先装好VM虚拟机软件,这点不用多解释了

 

2.点击新建一个虚拟机,一直下一步就好,注意我的截图上的选项

 

 

 

 

使用桥接网络

 

后面的一直下一步就OK。

虚拟机设置好后还没有系统用,这里我们给他选择下载好的Ubuntu16.04.iso

点击刚创建的虚拟机,编辑虚拟机设置

找到CD/DVD(SATA),选择你的iso文件路径即可。

 

设置好以后即可开机,安装Ubuntu的步骤就跳过了,一直下一步即可,记得设置账户名时一定要一样,主机名可以不一样。

3.进入Ubuntu后应该是这个样子的

 

4.开始准备JDK和hadoop环境

   在oracle官网下载对应Ubuntu系统的JDK

 

我们是Linux x86的,下载即可。下载的文件使用U盘拷贝到虚拟机。在下面的图标中找到你的U盘名字右键连接即可。

 

将JDK文件右键提取到一个地方,路径要好记的。待会配置环境变量会用到路径。

 

按clt+alt+t打开命令行

 

输入配置环境变量命令:

sudo gedit ~/.bashrc

 

末尾添加以下代码:

export JAVA_HOME=你的jdk安装路径  

export JRE_HOME=${JAVA_HOME}/jre  

exportCLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  

export PATH=${JAVA_HOME}/bin:$PATH

测试输入 java  -version,出现java版本信息成功

 

配置hadoop

下载release版本http://mirrors.cnnic.cn/apache/hadoop/common/hadoop-2.7.3/hadoop-2.7.3-src.tar.gz

放进Ubuntu中,提取到你好记的路径中。并且重命名为hadoop

配置环境

输入命令sudo gedit ~/.bashrc

末尾添加以下内容:

export HADOOP_HOME = 你的hadoop安装路径

export PATH = $JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

输入保存命令source ~/.bashrc

 

接下来配置SSH 免密码登录

安装ssh server

sudo apt-get install openssh-server

~$exit
~$ mkdir.ssh
~$ cd .ssh
~/.ssh$ssh-keygen -t rsa

~/.ssh$cat ./id_rsa.pub >> ./authorized_keys

测试一下,看是否需要密码

输入命令ssh localhost,没密码则成功。

修改hadoop配置文件(core-site.xml和hdfs-site.xml文件中根据hadoop路径修改节点内容)

hadoop-env.sh(根据你的jdk安装路径确定)

slaves文件  注意:填写你的hadoop从机主机名,就是hostname的名称,有多少台填多少

core-site.xml

hdfs-site.xml

yarn-site.xml

mapred-site.xml

到此,hadoop配置结束。

查看本机ip地址

输入命令ifconfig

 

修改hosts,编辑/etc/hosts,

cd /etc

sudo gedit hosts

末尾添加,注意:ip地址根据自己的设置

 sudo gedithostname

 

 

将现有的ubuntu主机名修改为master-hadoop 

 

重启虚拟机。

将虚拟机拷贝到其他电脑安装即可,只要修改hostname,确保ip地址是之前hosts文件一一对应的即可。

 

在master主机启动hadoop

·        start-all.sh

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值