Hadoop集群节点扩展

本文档详细记录了如何将一个拥有三个节点的Hadoop集群扩展至八个节点的过程,包括修改主机名、关闭防火墙、配置SSH免密码登录、安装JDK、设置文件权限、复制安装文件、启动datanode和nodemanager、刷新节点识别、执行负载均衡以及启动HBase regionserver等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

近期因为Hadoop集群的三个节点磁盘存储空间不足,经常导致集群服务出现停止运行,因此对三个节点的集群做了一次节点扩展,将原有的三个节点扩展为8个节点,以下是操作过程:

1、以root用户身份登录新增加的5个物理服务器,修改/etc/sysconfig/network文件,将主机名分别修改为datanode03 datanode04 datanode05 datanode06 datanode07

2、关闭新增加的5台物理服务器的防火墙和SElinex

3、修改所有节点的/etc/hosts

4、在新增加的5台服务服务器上安装JDK,注意安装目录和版本与原来三个节点要一致。

5、为新增加的5个物理服务器新建Hadoop用户

6、以Hadoop用户身份登录,配置所有节点之间的SSH免密码登录

7、因为原有三个节点的dfs.namenode.name.dir目录为file:/hdfs/name,所以以root身份在新增加的5台主机上新建/hdfs文件夹,并修改文件夹机器子目录的用户和用户组

chown -R hadoop hdfs

chown -R :hadoop hdfs

8、将主节点namenode中的hadoop安装文件复制到新增加的5个节点中,

9、修改所有节点下的hadoop中的slaves文件,增加如下内容

10.30.16.34 datanode03
10.30.16.35 datanode04
10.30.16.36 datanode05
10.30.16.37 datanode06
10.30.16.38 datanode07

10、修改hadoop-2.5.0/etc/hadoop/hdfs-site.xml文件将HDFS中数据的副本数改为3

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值