大数据学习02-Hadoop分布式集群部署

本文详细介绍了如何在CentOS7系统中创建虚拟机,配置NAT和桥接模式网络,以及实现免密登录。接着,文章讲述了如何安装JDK8和Hadoop-2.8.5,包括环境变量的配置,并提供了Hadoop的核心配置文件如core-site.xml、hdfs-site.xml、yarn-site.xml和mapred-site.xml的详细设置。最后,文章指导了如何启动Hadoop服务,并访问WebUI界面。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

操作系统:centos7
软件环境:jdk8、hadoop-2.8.5

一、创建虚拟机

1.下载VMware,建议支持正版
在这里插入图片描述
2.安装到Widows目录下任意位置即可,安装目录自定义。打开VMware,界面如下:
在这里插入图片描述
3.创建虚拟机
在这里插入图片描述
创建虚拟机—>选择自定义
在这里插入图片描述
这一步按照默认的配置就好
在这里插入图片描述
选择系统,安装程序光盘映像文件iso,这里需要下载cenos镜像文件
在这里插入图片描述给虚拟机命名,选择虚拟机安装位置
在这里插入图片描述处理器配置
在这里插入图片描述
内存配置
在这里插入图片描述
配置虚拟机网络连接方式
在这里插入图片描述

选择I/O控制器
在这里插入图片描述
创建磁盘
在这里插入图片描述
在这里插入图片描述
设置磁盘大小
在这里插入图片描述
选择虚拟磁盘存放地址
在这里插入图片描述
检查虚拟机配置,如果没有什么问题,点击完成
在这里插入图片描述
启动虚拟机,鼠标点击虚拟机屏幕,使用键盘上下键移动光标位置,光标在Install CentOS 7处,按下enter键
在这里插入图片描述
等待系统进入CentOS安装界面,选择简体中文
在这里插入图片描述
设置时区,选择亚洲–上海
在这里插入图片描述软件选择,GNOME桌面
在这里插入图片描述
选择自动配置分区
在这里插入图片描述
点击开始安装
在这里插入图片描述
设置root密码
在这里插入图片描述
创建用户
在这里插入图片描述
等待…安装完成,重启虚拟机
在这里插入图片描述
初始设置,完成授权
在这里插入图片描述在这里插入图片描述
进入centos登录界面
在这里插入图片描述

二、配置虚拟机网络

1.Nat模式

编辑—>虚拟机网络编辑器–>NAT模式–>DHCP设置
在这里插入图片描述
查看网络信息
在这里插入图片描述
打开终端面板,进入root模式
在这里插入图片描述

vi /etc/sysconfig/network-scripts/ifcfg-ens33 

修改网络配置,配置如下:
在这里插入图片描述
使用wq命令保存,使用下面命令重启网络服务

service network restart

2.桥接模式

获取宿主机网络配置信息
在这里插入图片描述
双击打开,点击详情信息
在这里插入图片描述
在这里插入图片描述
修改VMware虚拟网络编辑器信息
在这里插入图片描述
进入管理员模式后,点击桥接模式
在这里插入图片描述
注意:选择桥接到的网卡 一定和刚才查看信息的网卡是相同的!
接下来就需要设置VMware上的虚拟主机设置,如下图所示,在虚拟机关闭的情况下,依次点击编辑虚拟机设置-网络适配器-网络连接-桥接模式,点击确定,设置完成。
在这里插入图片描述

3.免密登录配置

修改主机名称

vi /etc/hostname

编辑映射文件hosts

vi /etc/hosts

添加如下配置

192.168.245.200 master 
192.168.245.201 slave1
192.168.245.202 slave2
# 生成公钥与私钥(三次回车)
ssh-keygen -t rsa		

将~/.ssh/id_rsa.pub 分发到节点服务器的~/.ssh目录下,并重命名为 authorized_keys

for i in {1..2};do scp -r ~/.ssh/authorized_keys root@slave${i}:~/.ssh/;done

这样便可以实现不同节点服务器免密登录
在这里插入图片描述
每台服务器都需要配置

三、安装jdk

上传jdk到linux系统,这里使用jdk1.8版本
在这里插入图片描述
将其解压到指定目录下

tar -zxvf jdk-8u301-linux-x64.tar.gz -C /home/local/

移动至java目录

mv jdk1.8.0_301 java

配置环境

vim /etc/profile

添加如下配置

#java
export JAVA_HOME=/home/local/java
export JRE_HOME=/home/local/java/jre
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
source /etc/profile

在终端输入java -version,出现下面信息,说明配置成功。
在这里插入图片描述

四、安装hadoop

上传hadoop安装包到linux系统,这里使用hadoop2.8.5版本
在这里插入图片描述
解压安装包

tar -zxvf hadoop-2.8.5.tar.gz -C /home/local/

移动至hadoop目录

 mv hadoop-2.8.5/ hadoop

配置hadoop环境

vi /etc/profile

添加如下配置

#hadoop
export HADOOP_HOME=/home/local/hadoop
export PATH=$PATH:${HADOOP_HOME}/bin

使用配置的环境变量立即生效

source /etc/profile

配置 hadoop-env.sh 文件,指定java安装目录

cd $HADOOP_HOME/etc/hadoop

修改hadoop-env.sh文件

vi /hadoop-env.sh

配置如下

export JAVA_HOME=/home/local/java

配置Hadoop主要文件

核心配置文件 —— core-site.xml

HDFS 配置文件 —— hdfs-site.xml

YARN 配置文件 —— yarn-site.xml

MapReduce 配置文件 —— mapred-site.xml

1.core-site.xml
<configuration>
<!-- 指定 NameNode 的地址 -->
   <property>
      <name>fs.defaultFS</name>
      <value>hdfs://master:9000</value>
   </property>
<!-- 指定 Hadoop 数据的存储目录 -->
   <property>
      <name>hadoop.tmp.dir</name>
      <value>/opt/hadoop/tmp</value>
   </property>
<!-- 配置 HDFS 网页登录使用的静态用户为 master -->
   <property>
      <name>hadoop.http.staticuser.user</name>
      <value>master</value>
   </property>
</configuration>

2.hdfs-site.xml
<configuration>
    <property>
       <name>dfs.replication</name>
       <value>3</value>
    </property>
    <property>
       <name>dfs.namenode.name.dir</name>
       <value>file:/opt/hadoop/dfs/name</value>
    </property>
    <property>
       <name>dfs.datanode.data.dir</name>
       <value>file:/opt/hadoop/dfs/data</value>
    </property>
    <property>
       <name>dfs.namenode.http-address</name>
       <value>master:9870</value>
    </property>
    <property>
       <name>dfs.namenode.secondary.http-address</name>
       <value>slave2:9871</value>
    </property>
</configuration>
3.yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
   <!-- 指定 MR 走 shuffle -->
   <property>
       <name>yarn.nodemanager.aux-services</name>
       <value>mapreduce_shuffle</value>
   </property>

   <property>
       <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
       <value>org.apache.hadoop.mapred.ShuffleHandler</value>
   </property>
   
   <property>
       <name>yarn.resourcemanager.address</name>
       <value>master:8032</value>
   </property>
   <property>
       <name>yarn.resourcemanager.scheduler.address</name>
       <value>master:8030</value>
   </property>
   <property>
       <name>yarn.resourcemanager.resource-tracker.address</name>
       <value>master:8031</value>
   </property>
   <property>
       <name>yarn.resourcemanager.admin.address</name>
       <value>master:8033</value>
   </property>
   <!-- 指定 客户端web 的地址-->
   <property>
       <name>yarn.resourcemanager.webapp.address</name>
       <value>master:8088</value>
   </property>

   <!-- 环境变量的继承 -->
   <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
   </property>

   <!-- 如果要程序的运行日志信息上传到HDFS系统上,可配置日志聚集(选择配置) -->
   <!-- 开启日志聚集功能 -->
   <property>
     <name>yarn.log-aggregation-enable</name>
     <value>true</value>
   </property>
   <!-- 设置日志聚集服务器地址 -->
   <property>
     <name>yarn.log.server.url</name>
     <value>http://master:19888/jobhistory/logs</value>
   </property>
  <!-- 设置日志保留时间为7天 -->
   <property>
     <name>yarn.log-aggregation.retain-seconds</name>
     <value>604800</value>
   </property>
</configuration>
4.mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>master:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>master:19888</value>
    </property>
</configuration>

五、启动hadoop

将hadoop分发到每个节点,每个节点都要进行格式化,进入$HADOOP_HOME/bin目录下

$HADOOP_HOME/bin/hdfs namenode -format

进入$HADOOP_HOME的sbin目录下,分别启动hdfs和yarn

./start-dfs.sh && ./start-yarn.sh

使用jps命令查看进程
在这里插入图片描述
六、访问Web UI界面
客户端Web页面
http://192.168.245.200:8088/cluster/nodes
在这里插入图片描述
hdfs页面
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小蜜蜂127

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值