【HDFS】集群出现大量的Under Replicated Blocks

1.前言

Hadoop集群进行机器缩容时发现HDFS集群出现大量的Under Replicated Blocks并且请求同步副本数为10超过默认设置的副本数2(dfs.replication),影响集群稳定性。

2.分析

【1】查看NameNode的UI页面出现大量的Under Replicated Blocks且长时间没有完成
在这里插入图片描述

【2】hdfs fsck / 查看集群数据健康情况,大量文件请求10副本
在这里插入图片描述
【3】文件设置副本数或删除文件后,还会出现少量的Under Replicated Blocks

 hdfs dfs -setrep -w 2 /user/root/.staging/job_1724120681289_0001/job.split

【4】在hive-site.xml中增加下列配置项,值设置为2,集群恢复正常。

<property>
  <name>mapreduce.client.submit.file.replication</name>
  <value>10</value>
  <description>The replication level for submitted job files.  This
  should be around the square root of the number of nodes.
  </description>
</property>

3.总结

出现上述问题主要原因是MapReduce的mapreduce.client.submit.file.replication默认为10,当集群规模恰好低于10台时才会出现上述现象。因为只在Hive中运行MapReduce任务,所以在hive-site.xml中增加此配置项并且值设置为2即可,不需要重启服务。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值