大数据学习2-Hadoop分布式搭建

下载hadoop

hadoop下载提取码:vqkm(也可以自己去官网下载)

上传解压

下载完了之后使用Xshell连接master主机并上传到root目录下

tar zxfv hadoop-2.6.0.tar.gz  #解压hadoop
mv hadoop-2.6.0 hadoop  #重命名

修改环境变量

vi /etc/profile

在后面添加以下配置

export HADOOP_HOME=/root/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#之前添加过java环境变量,这次直接加后面就行了

记得让修改的环境变量立即生效

source /etc/profile  #修改的环境变量立即生效

修改配置文件

修改6个配置文件->hadoop-env.sh,core-site.xml,hdfs-site.xml,yarn-site.xml,slaves,mapred-site.xml
其中mapred-site.xml不存在只有 mapred-site.xml.template,所以需要重命名
注意哦 :在修改配置文件的时候一定要细心不要急,一个字母出错都会出问题

cd hadoop/etc/hadoop/  #进入需要修改的配置文件目录下
mv mapred-site.xml.template mapred-site.xml #重命名需要配置的mapred-site.xml文件

1. hadoop-env.sh

vi hadoop-env.sh
	找到export JAVA_HOME=${JAVA_HOME} 把${JAVA_HOME}修改为/root/jdk

2. core-site.xml

vi core-site.xml
<configuration>
  <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
  </property>
  <property>
        <name>hadoop.tmp.dir</name>
        <value>/root/hadoop/tmp</value>
  </property>
</configuration>
mkdir /root/hadoop/tmp 

3.hdfs-site.xml

vi hdfs-site.xml
<configuration>
  <property>
        <name>dfs.namenode.name.dir</name>
        <value>/root/hadoop/hdfs/name</value>
  </property>
  <property>
        <name>dfs.datanode.data.dir</name>
        <value>/root/hadoop/hdfs/data</value>
  </property>
  <property>
        <name>dfs.repliation</name>
        <value>2</value>
  </property>
  <property>
        <name>dfs.secondary.http.address</name>
        <value>slave1:50090</value>
  </property>
</configuration>
mkdir -p /root/hadoop/hdfs/name
mkdir -p /root/hadoop/hdfs/data

4. mapred-site.xml

vi mapred-site.xml
<configuration>
  <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
  </property>
</configuration>

5. yarn-site.xml

vi yarn-site.xml

把configuration里面的的注释删掉

<configuration>
  <property>
        <name>yarn.resourcemanager.host</name>
        <value>slave2</value>
  </property>
  <property>
        <name>yarn.resourcemanager.address</name>
        <value>slave2:8032</value>
  </property>
  <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
  </property>
</configuration>

6.slaves

vi slaves

把localhost删掉

master  
slave1
slave2

把hadoop文件拷贝到slave1和slave2主机上

scp -r /root/hadoop slave1:/root/
scp -r /root/hadoop slave2:/root/
scp -r /etc/profile slave1:/etc/
scp -r /etc/profile slave2:/etc/

初始化hadoop

hadoop namenode -format #或者hdfs namenode -format都行

在这里插入图片描述
出现以上画面说明环境搭建成功了,如果出错找到error查看问题在哪,大概率是配置文件里的字母打错了

启动

在master主机上启动

start-dfs.sh

输入jps验证 ,查看hadoop启动的服务
在slave2主机上启动

start-yarn.sh 

输入jps验证
也可以在浏览器上输入maser主机ip地址加50070验证
例如->192.168.1.11:50070 注意前面的ip地址输你自己的

最后如果要关闭hadoop启动的服务
这里注意细节:关闭服务是从后往前关,所以先关slave2主机上的

stop-yarn.sh  #slave2
stop-dfs.sh   #master
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值