Hadoop集群配置及启动

本文详细介绍了如何在多台服务器上搭建分布式Hadoop集群,涉及配置文件设置(如NameNode地址、HDFS存储路径等)、集群脚本分发、格式化NameNode、启动HDFS和YARN服务,以及Web端资源管理器查看。确保集群完整运行并提供Web访问验证。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、搭建完全分布式hadoop集群,我们先来实现如下集群的配置:
在这里插入图片描述
配置前我们介绍一下配置文件:
以下所有的配置文件都在hadoop安装目录下etc文件中,路径如下:
/opt/module/hadoop-3.1.3/etc/hadoop/
在这里插入图片描述
我们需要配置的文件如下:
在这里插入图片描述
core-site.xml :1、NameNode的地址 2、Hadoop数据存储目录
在这里插入图片描述

hdfs-site.xml :1、NameNode和2NN对外web访问地址
在这里插入图片描述

yarn-site.xml:1、指定MapReduce的协议 2、指定ResourceManger的地址 3、添加Maperd环境变量的继承(此项hadoop3.2以上版本可以无需指定)
在这里插入图片描述

mapred-site.xml :1、指定MapReduce程序运行在Yarn上
在这里插入图片描述

好了,到现在为止,我们搭建了一台服务器,其他两台的配置我们用集群分发脚本分发一下(脚本见之前的文章)。
在这里插入图片描述
二、启动集群

1、格式化NameNode

如果是第一次启动集群,我们在含有NameNode的服务器上先格式化NameNode( 注意 : 格 式 化 NameNode , 会 产 生 新的集群 id , 导 致 NameNode 和 DataNode 的集群 id 不 一 致 , 集群 找 不 到已 往 数据。 如果集群在 运 行过程中 报错 , 需 要 重 新 格 式 化 NameNode 的 话 , 一定要 先 停止 namenode 和 datanode 进程, 并 且 要 删 除所有 机 器的 data 和 logs 目 录 , 然后再 进行 格 式 化 。 及停服务、删文件、格式化)

 hdfs namenode  -format

结果展示:出现存数据的Data文件、logs日志文件
在这里插入图片描述

2、启动HDFS

sbin/start-dfs.sh
jps

结果如下:
hadoop001上启动NameNode、DataNode
在这里插入图片描述
hadoop002上启动ResourceManager、DataNoda
hadoop上启动YARN:

sbin/start-yarn.sh

在这里插入图片描述
hadoop003上启动了DataNade、SecondaryNode
在这里插入图片描述

3、查看Web端HDFS的NameNode和YARN的ResourceManager
首先关闭服务器防火墙

sudo systemctl stop firewalld.service

浏览器输入http://hadoop001:9870查看HDFS信息
在这里插入图片描述
浏览器输入http://hadoop002:8088查看ResourceManager信息
在这里插入图片描述
至此,hadoop完全分布式搭建完成!

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值