hadoop3.x系列完全分布式集群部署(集群各节点设置与端口号的设置)

前言:hadoop集群为了满足高可用性与集群的高可靠性,选择对不同节点设置相应的权限与能力。用于达成平台的使用。

准备工作:

三台部署好hadoop与java的虚拟机。(三台虚拟机必须在同一网段)

详细配置信息请看hadoop3.x系列完全分布式集群部署(虚拟机网络连接、jdk安装、hadoop安装)_杂乱无章的我的博客-优快云博客

一 :集群部署规划

NameNode与SecondaryNameNode不能部署在同一台服务器上。(因为SecondaryNameNode是防止NameNode挂掉时对其进行替换的。如果处于同一设备时,就不能在NameNode挂掉时对其进行取代了)

ResourceManager也很消耗内存,不要和NameNode、SecondaryNameNode配置在同一台机器上。

所以,我们对三台集群的设置如下所示

hadoop集群部署规划
hadoop130hadoop131hadoop132
HDFS

NameNode

DataNode

DataNode

SecondaryNameNode

DataNode

YARNNodeManager

ResourceManager

NodeManager

NodeManager

接下来对集群文件进行配置,使集群配置生效。

二 :文件设置

配置core-site.xml文件

首先进入配置文件文件夹

cd /opt/module/hadoop-3.1.3/etc/hadoop/

查看要进行修改的文件

vim core-site.xml

进入文件内部,向文件内添加如下代码(注意你使用的用户或者用户ip与本文章不同,在使用时对应值进行修改

<configuration>
    <!-- 指定NameNode的地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop130:8020</value>
    </property>

    <!-- 指定hadoop数据的存储目录 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/module/hadoop-3.1.3/data</value>
    </property>

    <!-- 配置HDFS网页登录使用的静态用户为hr-->
    <property>
        <name>hadoop.http.staticuser.user</name>
        <value>hr</value>
    </property>
</configuration>

保存后退出。

配置hdfs-site.xml文件

查看要进行修改的文件

vim hdfs-site.xml

向文件内添加如下代码(设置namenode与secondarynamenode的web端访问地址)

<configuration>
        <!-- nn web端访问地址-->
        <property>
        <name>dfs.namenode.http-address</name>
        <value>hadoop130:9870</value>
    </property>
        <!-- 2nn web端访问地址-->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop132:9868</value>
    </property>
</configuration>

保存文件后退出

 配置yarn-site.xml文件

查看要进行修改的文件

vim yarn-site.xml

向文件内添加如下代码

<configuration>
    <!-- 指定MR走shuffle -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

    <!-- 指定ResourceManager的地址-->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop131</value>
    </property>

    <!-- 环境变量的继承 -->
    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
    </property>
</configuration>

保存文件后退出

 配置mapred-site.xml文件

查看要进行修改的文件

vim mapred-site.xml

向文件内添加如下代码

<configuration>
        <!-- 指定MapReduce程序运行在Yarn上 -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
        <!-- 历史服务器端地址 -->
    <property>
         <name>mapreduce.jobhistory.address</name>
         <value>hadoop130:10020</value>
    </property>
        <!-- 历史服务器 web 端地址 -->
    <property>
         <name>mapreduce.jobhistory.webapp.address</name>
         <value>hadoop130:19888</value>
    </property>
</configuration>

 保存文件后退出。

配置集群workers

打开文件workers

cd /opt/module/hadoop-3.1.3/etc/hadoop/
vim workers

向文件中添加如下内容(注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行

hadoop130
hadoop131
hadoop132

 保存后退出。

到此,所有hadoop文件配置完毕。接下来对集群进行初始化测试。

三 集群启动与测试

如果集群是第一次启动,需要在hadoop130节点格式化NameNode(注意:格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。如果集群在运行过程中报错,需要重新格式化NameNode的话,一定要先停止namenode和datanode进程,并且要删除所有机器的data和logs目录,然后再进行格式化。

(1)格式化命令:

hdfs namenode -format

2)启动HDFS

 sbin/start-dfs.sh

(3)在配置了ResourceManager的节点(hadoop131启动YARN

sbin/start-yarn.sh

(4)Web端查看HDFS的NameNode

        浏览器中输入:http://hadoop:9870

(5)Web端查看YARN的ResourceManager

         浏览器中输入:http://hadoop131:8088

        

结果如下图所示即配置成功

 

 通过命令jps也可以查看对应节点上的部署情况

jps

这是hadoop130的部署情况 

这是hadoop131的部署情况

这是hadoop132的部署情况

可以发现与我们设置的hadoop集群部署完全相同。

 到此,hadoop完全分布式集群搭建完毕,对应节点设置也部署完毕。有相关问题欢迎评论区留言。对文章有任何意见也欢迎留言与私信。谢谢大家的观看。

### Hadoop 分布式集群部署详细步骤 以下是基于已有引用内容以及专业知识整理的 Hadoop 分布式集群部署的详细步骤: #### 1. 准备工作 在开始之前,需确保所有节点的操作系统版本一致,并完成以下操作: - 配置无密码 SSH 登录。可以通过 `ssh-keygen` 和 `ssh-copy-id` 命令实现主机间的免密登录[^3]。 - 关闭防火墙或配置允许必要的端口通信。 #### 2. 下载并上传 Hadoop 安装包 将 Hadoop 的二进制压缩包下载至本地机器并通过 SCP 或其他方式传输到 Master 节点上的 `/home/hadoop/` 目录下[^2]: ```bash scp hadoop-3.3.4.tar.gz hd@hadoopMaster:/home/hadoop/ ``` #### 3. 解压安装包 切换到目标路径后执行解压命令: ```bash tar -zxvf hadoop-3.3.4.tar.gz ``` 此过程会创建一个名为 `hadoop-3.3.4` 的目录结构[^2]。 #### 4. 创建软链接以便管理升级 为了简化未来可能存在的版本更新流程,在实际应用中通常建议设置符号链接指向当前使用的具体版本号文件夹: ```bash ln -s /opt/module/hadoop/hadoop-3.3.4 hadoop ``` 这一步骤使得无论何时更换新版本只需修改该链接即可立即生效而无需调整任何脚本或者程序中的绝对路径调用[^1]。 #### 5. 修改核心配置文件 编辑如下几个主要参数定义文档来适应自己的网络环境需求: ##### (a). hdfs-site.xml 设定 NameNode 数据存储位置以及其他副本策略等相关选项: ```xml <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <!-- Other properties --> </configuration> ``` ##### (b). core-site.xml 指定默认FS URI 及临时数据保存地点等基本信息 : ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://namenode_host:9000</value> </property> <!-- Additional settings as needed --> </configuration> ``` ##### (c). mapred-site.xml 如果启用了 YARN,则需要在此处声明框架名称为 MapReduce v2(MRv2),否则保持原样即可满足基本功能要求. ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <!-- More configurations here... --> </configuration> ``` ##### (d). yarn-site.xml 当启用资源调度器时, 这里可以自定义队列大小比例分配方案等内容... ```xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!-- Further customizations go below this line ... --> </configuration> ``` 以上四个 XML 文件均位于 `${HADOOP_HOME}/etc/hadoop/` 子目录内部. #### 6. 同步更改后的配置至所有 Slave Nodes 利用 Linux 自带工具快速复制已调整完毕的内容给其余成员服务器共享同一份标准规范: ```bash scp -r ${HOME}/.bashrc hd@slave_node_ip:/home/hadoop/.bashrc scp -r $HADOOP_HOME/* hd@slave_node_ip:$HADOOP_HOME/* ``` 注意替换其中占位符部分的实际数值以匹配真实场景下的具体情况[^3]. #### 7. 初始化 HDFS 文件系统 仅限于第一次运行前必需的一次性初始化动作: ```bash $HADOOP_HOME/bin/hdfs namenode -format ``` #### 8. 启动服务进程 按照官方手册指示顺序依次开启各个组件实例直到整个生态系统处于正常运转状态为止: ```bash start-dfs.sh && start-yarn.sh ``` 至此,Hadoop 分散型计算平台即成功构建起来可供进一步测试验证其可用性和性能表现如何! ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

杂乱无章的我

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值