hadoop添加节点和删除节点

本文详细介绍了如何在Hadoop集群中增加或删除DataNode。新增DataNode需完成部署、配置修改及均衡block等步骤;删除DataNode则需通过配置排除文件并强制重新加载配置来实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

转自:http://www.cnblogs.com/ggjucheng/archive/2012/04/22/2465625.html

添加DataNode

1.部署hadoop

和普通的datanode一样。安装jdk,ssh

2.修改host

和普通的datanode一样。添加namenode的ip

3.修改namenode的配置文件conf/slaves

添加新增节点的ip或host

4.在新节点的机器上,启动服务

[root@slave-004 hadoop]# ./bin/hadoop-daemon.sh start datanode 
[root@slave-004 hadoop]# ./bin/hadoop-daemon.sh start tasktracker

5.均衡block

[root@slave-004 hadoop]# ./bin/start-balancer.sh

这个会非常耗时 
1)如果不balance,那么cluster会把新的数据都存放在新的node上,这样会降低mapred的工作效率 
2)设置平衡阈值,默认是10%,值越低各节点越平衡,但消耗时间也更长 
[root@slave-004 hadoop]# ./bin/start-balancer.sh -threshold 5 
3)设置balance的带宽,默认只有1M/s

复制代码
<property> 
<name>dfs.balance.bandwidthPerSec</name> 
<value>1048576</value> 
<description> 
Specifies the maximum amount of bandwidth that each datanode 
can utilize for the balancing purpose in term of 
the number of bytes per second. 
</description> 
</property>
复制代码


注意:

1. 必须确保slave的firewall已关闭; 
2. 确保新的slave的ip已经添加到master及其他slaves的/etc/hosts中,反之也要将master及其他slave的ip添加到新的slave的/etc/hosts中




删除DataNode

1.集群配置 
修改conf/hdfs-site.xml文件

复制代码
<property> 
<name>dfs.hosts.exclude</name> 
<value>/data/soft/hadoop/conf/excludes</value> 
<description>Names a file that contains a list of hosts that are 
not permitted to connect to the namenode. The full pathname of the 
file must be specified. If the value is empty, no hosts are 
excluded.</description> 
</property>
复制代码


2确定要下架的机器 
dfs.hosts.exclude定义的文件内容为,每个需要下线的机器,一行一个。这个将阻止他们去连接Namenode。如:

slave-003 
slave-004


3.强制重新加载配置

[root@master hadoop]# ./bin/hadoop dfsadmin -refreshNodes

它会在后台进行Block块的移动

 

4.关闭节点 
等待刚刚的操作结束后,需要下架的机器就可以安全的关闭了。

[root@master hadoop]# ./bin/ hadoop dfsadmin -report

可以查看到现在集群上连接的节点

正在执行Decommission,会显示: 

Decommission Status : Decommission in progress

执行完毕后,会显示: 

Decommission Status : Decommissioned


5.再次编辑excludes文件 
一旦完成了机器下架,它们就可以从excludes文件移除了

登录要下架的机器,会发现DataNode进程没有了,但是TaskTracker依然存在,需要手工处理一下

### 如何在Hadoop分布式文件系统中添加新的DataNode节点 要在现有的Hadoop集群中添加一个新的DataNode节点,需要遵循一系列配置操作流程。以下是详细的说明: #### 配置新增加的机器 1. **安装Java环境** 新增的机器上必须先安装与现有集群相同版本的JDK,并确保`JAVA_HOME`变量已正确设置[^4]。 2. **同步Hadoop软件包** 将当前使用的Hadoop版本复制到新节点并解压至指定路径。确保该路径与其他节点一致以便于管理。 3. **修改核心配置文件** - 编辑 `core-site.xml`, 设置相同的 `fs.defaultFS` 参数指向 NameNode 的 URI。 ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://<namenode-ip>:9000</value> </property> </configuration> ``` - 修改 `hdfs-site.xml` 文件中的参数以匹配主集群配置,特别是 `dfs.replication` 存储目录定义部分。 ```xml <configuration> <property> <name>dfs.datanode.data.dir</name> <value>/path/to/data/directory</value> </property> </configuration> ``` 4. **SSH免密登录配置** 如果尚未完成,则需为主节点其他数据节点配置无密码 SSH 访问权限。这通常涉及将主节点上的公钥分发给所有目标主机包括这个新加的数据节点。 5. **更新slaves列表** 在NameNode服务器上的 `$HADOOP_HOME/etc/hadoop/slaves` 文件里追加新加入 DataNodes 的 IP 地址或者主机名。 6. **格式化名称节点 (可选)** 当首次初始化整个 HDFS 或者遇到某些特殊错误时才可能需要用到此命令;一般情况下不需要再次执行格式化动作除非特别必要[^3]。 7. **重启服务** 使用如下脚本来停止旧的服务实例然后再重新开启它们: ```bash stop-dfs.sh && start-dfs.sh ``` 8. **验证状态** 登陆Web UI界面 http://<namenode-host>:50070 来确认新增加的那个 datanode 是否成功注册到了 namenode 上面并且正常工作着。 如果一切顺利的话,你应该能够看到最新的datanodes出现在web ui界面上. ```python print("New Datanode successfully added.") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值