前言
本篇主要介绍Hadoop完全分布式运行模式环境的搭建
相关虚拟机及各种配置请查看上一篇文章
需要准备的材料
终端神器:MobaXterm
JDK:jdk-8u212-linux-x64.tar.gz
Hadoop:hadoop-3.1.3.tar.gz
软件包链接
提取码: 1pt9
一、Hadoop部署
1.集群的规划
组件 | hadoop101 | hadoop102 | hadoop03 |
---|---|---|---|
HDFS | NameNode、DataNode | DataNode | SecondaryNameNode、DataNode |
YARN | NodeManager | ResourceManager、NodeManager | NodeManager |
2.将软件包导入到虚拟机中
进入software查看软件包是否导入成功
[student@hadoop101 ~]$ cd /opt/software
[student@hadoop101 software]$ ll
总用量 520792
-rw-rw-r--. 1 student student 338075860 1月 16 15:48 hadoop-3.1.3.tar.gz
-rw-rw-r--. 1 student student 193831 1月 16 15:48 hadoop-lzo-0.4.20.jar
-rw-rw-r--. 1 student student 195013152 1月 16 15:45 jdk-8u212-linux-x64.tar.gz
3.JDK准备
3.1 如果安装了的JDK需先卸载
[student@hadoop101 ~]$ sudo rpm -qa | grep -i java | xargs -n1 sudo rpm -e --nodeps
[student@hadoop102 ~]$ sudo rpm -qa | grep -i java | xargs -n1 sudo rpm -e --nodeps
[student@hadoop103 ~]$ sudo rpm -qa | grep -i java | xargs -n1 sudo rpm -e --nodeps
3.2 解压
# 进入software文件夹
[student@hadoop103 ~]$ cd /opt/software
# 解压JDK到/opt/module
[student@hadoop103 software]$ tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/
3.3 配置环境变量
在/etc/profile.d/目录下新建env.sh
[student@hadoop101 software]$ vim /etc/profile.d/env.sh
添加如下内容
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin
加载配置文件
[student@hadoop101 software]$ source /etc/profile.d/env.sh
3.4 测试安装是否成功
[student@hadoop101 software]$ java -version
如果出现以下内容,则表示安装成功
java version "1.8.0_212"
Java(TM) SE Runtime Environment (build 1.8.0_212-b10)
Java HotSpot(TM) 64-Bit Server VM (build 25.212-b10, mixed mode)
3.5 分发JDK
[student@hadoop101 ~]$ xsync /opt/module/jdk1.8.0_212
3.6 分发环境变量
[student@hadoop101 ~]$ sudo /home/student/bin/xsync /etc/profile.d/env.sh
3.7 在其他两台机器重新加载环境变量并验证
[student@hadoop102 ~]$ source /etc/profile.d/env.sh
[student@hadoop102 ~]$ java -version
java version "1.8.0_212"
Java(TM) SE Runtime Environment (build 1.8.0_212-b10)
Java HotSpot(TM) 64-Bit Server VM (build 25.212-b10, mixed mode)
[student@hadoop103 ~]$ source /etc/profile.d/env.sh
[student@hadoop103 ~]$ java -version
java version "1.8.0_212"
Java(TM) SE Runtime Environment (build 1.8.0_212-b10)
Java HotSpot(TM) 64-Bit Server VM (build 25.212-b10, mixed mode)
4.Hadoop准备
4.1 解压软件包
进入software目录下
[student@hadoop101 ~]$ cd /opt/software
将hadoop解压到/opt/module
[student@hadoop101 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module
4.2 将hadoop添加到环境变量
[student@hadoop101 software]$ vim /etc/profile.d/env.sh
添加如下内容
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
4.3 分发环境变量文件
[student@hadoop101 ~]$ sudo /home/student/bin/xsync /etc/profile.d/env.sh
4.4 使环境变量生效
[student@hadoop101 ~]$ source /etc/profile.d/env.sh
[student@hadoop102 ~]$ source /etc/profile.d/env.sh
[student@hadoop103 ~]$ source /etc/profile.d/env.sh
二、配置集群
1.核心配置文件
配置core-site.xml
进入到hadoop安装目录
[student@hadoop101 ~]$ cd $HADOOP_HOME/etc/hadoop
[student@hadoop101 hadoop]$ vim core-site.xml
添加如下内容
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop101:9820</value>
</property>
<!-- 指定hadoop数据的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-3.1.3/data/tmp</value>
</property>
<!-- 配置HDFS网页登录使用的静态用户为student -->
<property>
<name>hadoop.http.staticuser.user</name>
<value>student</value>
</property>
<!-- 配置该student(superUser)允许通过代理访问的主机节点 -->
<property>
<name>hadoop.proxyuser.student.hosts</name>
<value>*</value>
</property>
<!-- 配置该student(superUser)允许通过代理用户所属组 -->
<property>
<name>hadoop.proxyuser.student.groups</name>
<value>*</value>
</property>
<!-- 配置该student(superUser)允许通过代理的用户-->
<property>
<name>hadoop.proxyuser.student.groups</name>
<value>*</value>
</property>
</configuration>
2.HDFS配置文件
配置hdfs-site.xml
[student@hadoop101 hadoop]$ vim hdfs-site.xml
添加如下内容
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- nn web端访问地址-->
<property>
<name>dfs.namenode.http-address</name>
<value>hadoop101:9870</value>
</property>
<!-- 2nn web端访问地址-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop103:9868</value>
</property>
<!-- 测试环境指定HDFS副本的数量1 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
3.YARN配置文件
配置yarn-site.xml
[student@hadoop101 hadoop]$ vim yarn-site.xml
添加如下内容
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定MR走shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定ResourceManager的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop102</value>
</property>
<!-- 环境变量的继承 -->
<property>
<name>yarn.nodemanager.env-whitelist</name> <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
<!-- yarn容器允许分配的最大最小内存 -->
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>512</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>4096</value>
</property>
<!-- yarn容器允许管理的物理内存大小 -->
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>4096</value>
</property>
<!-- 关闭yarn对物理内存和虚拟内存的限制检查 -->
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
</configuration>
4.MapReduce配置
配置mapred-site.xml
[student@hadoop101 hadoop]$ vim mapred-site.xml
添加如下内容
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定MapReduce程序运行在Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
5.配置workers
配置workers
[student@hadoop101 hadoop]$ vim workders
添加如下内容
hadoop101
hadoop102
hadoop103
三.配置历史服务器
为了查看程序的历史运行情况,需要配置一下历史服务器
1.配置mapred-site.xml
[student@hadoop101 hadoop]$ vim mapred-site.xml
添加如下内容
<!-- 历史服务器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop101:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop101:19888</value>
</property>
四. 配置日志的聚集
- 日志聚集的概念:应用运行完成以后,将程序运行日志信息上传到HDFS系统上
- 好处:可以方便查询程序运行详情,方便开发调试
1.配置yarn-site.xml
[student@hadoop101 hadoop]$ vim yarn-site.xml
追加如下内容
<!-- 开启日志聚集功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 设置日志聚集服务器地址 -->
<property>
<name>yarn.log.server.url</name>
<value>http://hadoop101:19888/jobhistory/logs</value>
</property>
<!-- 设置日志保留时间为7天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
五.分发配置文件
[student@hadoop101 hadoop]$ xsync /opt/module/hadoop-3.1.3
六.启动集群
1.初始化NameNode
如果是第一次启动,需要在hadoop101格式化NameNode(注意:在格式化之前,一定要先停止上次启动的所有namenode和datanode进程,然后删除data和log数据)
[student@hadoop101 hadoop-3.1.3]$ bin/hdfs namenode -format
2.启动HDFS
[student@hadoop101 hadoop-3.1.3]$ sbin/start-dfs.sh
3.启动YARN
在配置了ResourceManager的节点启动(hadoop102)
[student@hadoop101 hadoop-3.1.3]$ sbin/start-dfs.sh
4.验证集群是否按规划正常启动了
4.1 jps查看各个机器的角色
[student@hadoop101 hadoop-3.1.3]$ jps
2755 NodeManager
2325 NameNode
2873 Jps
2444 DataNode
[student@hadoop102 hadoop-3.1.3]$ jps
2176 NodeManager
1877 DataNode
2518 Jps
2046 ResourceManager
[student@hadoop103 ~]$ jps
2071 NodeManager
1868 DataNode
2190 Jps
1967 SecondaryNameNode
4.2 Web端查看
Web端查看HDFS的Web界面
http://hadoop101:9870
七. 编写集群启动脚本
进入家目录下的bin目录下
[student@hadoop101 hadoop-3.1.3]$ cd ~/bin
[student@hadoop101 bin]$ pwd
/home/student/bin
[student@hadoop101 bin]$ vim hdp.sh
添加如下内容
#!/bin/bash
if [ $# -lt 1 ]
then
echo "No Args Input..."
exit ;
fi
case $1 in
"start")
echo " =================== 启动 hadoop集群 ==================="
echo " --------------- 启动 hdfs ---------------"
ssh hadoop101 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh"
echo " --------------- 启动 yarn ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh"
echo " --------------- 启动 historyserver ---------------"
ssh hadoop101 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start historyserver"
;;
"stop")
echo " =================== 关闭 hadoop集群 ==================="
echo " --------------- 关闭 historyserver ---------------"
ssh hadoop101 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop historyserver"
echo " --------------- 关闭 yarn ---------------"
ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh"
echo " --------------- 关闭 hdfs ---------------"
ssh hadoop101 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh"
;;
*)
echo "Input Args Error..."
;;
esac
给与执行权限
[student@hadoop101 bin]$ chmod 777 hdp.sh
测试脚本
[student@hadoop101 bin]$ hdp.sh stop
=================== 关闭 hadoop集群 ===================
--------------- 关闭 historyserver ---------------
--------------- 关闭 yarn ---------------
Stopping nodemanagers
Stopping resourcemanager
--------------- 关闭 hdfs ---------------
Stopping namenodes on [hadoop101]
Stopping datanodes
Stopping secondary namenodes [hadoop103]
[student@hadoop101 bin]$ hdp.sh start
=================== 启动 hadoop集群 ===================
--------------- 启动 hdfs ---------------
Starting namenodes on [hadoop101]
Starting datanodes
Starting secondary namenodes [hadoop103]
--------------- 启动 yarn ---------------
Starting resourcemanager
Starting nodemanagers
--------------- 启动 historyserver ---------------
八. 配置集群时间同步
时间同步的方式:找一个机器,作为时间服务器,所有的机器与这台集群时间进行时间定时同步,比如,每隔十分钟,同步一次时间
1. 安装ntp
[student@hadoop101 bin]$ sudo yum -y install ntp
2. 修改ntp.conf配置文件
修改hadoop101的ntp.conf配置文件
[student@hadoop101 ~]$ sudo vim /etc/ntp.conf
- 修改点1
授权192.168.1.0-192.168.1.255 网段上的所有机器可以从这台机器上查询和同步时间
# restrict default nomodify notrap nopeer noquery
restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
- 修改点2
集群在局域网中,不使用其他互联网上的时间
注释掉以下内容
# server 0.centos.pool.ntp.org iburst
# server 1.centos.pool.ntp.org iburst
# server 2.centos.pool.ntp.org iburst
# server 3.centos.pool.ntp.org iburst
- 修改点3
当该节点丢失网络连接,依然可以采用本地时间作为时间服务器为集群中的其他节点提供时间同步
# 在文件的末尾添加如下内容
server 127.127.1.0
fudge 127.127.1.0 stratum 10
3.修改/etc/sysconfig/ntpd文件
[student@hadoop101 ~]$ sudo vim /etc/sysconfig/ntpd
添加如下内容,让硬件时间和系统时间一起同步
SYNC_HWCLOCK=yes
4.启动ntp服务并设置开机自启
[student@hadoop101 ~]$ sudo systemctl start ntpd
[student@hadoop101 ~]$ sudo systemctl enable ntpd
5.其他机器配置(必须root用户)
1.安装ntp
[student@hadoop102 ~]$ sudo yum -y install ntp
2.配置10分钟与时间服务器同步一次
[student@hadoop102 ~]$ sudo crontab -e
添加如下内容
*/10 * * * * /usr/sbin/ntpdate hadoop101
3.测试
修改任意机器时间
[student@hadoop102 ~]$ sudo date -s "2020-11-11 11:11:11"
10分钟后查看时间是否同步
[student@hadoop102 ~]$ sudo date
测试的时候可将10分钟调整为1分钟
总结
本篇介绍了hadoop集群的搭建,下篇将讲一下项目的使用hadoop的经验以及zookeeper、kafka的安装