hadoop日常问题记录(1)

本文记录了在HDFS集群扩展过程中遇到的问题及解决方法。由于新增服务器磁盘配置不同,导致VERSION文件中的datanodeUuid不一致,通过修改UUID并重启节点解决了问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

今天在操作HDFS的时候,碰到如下问题:

Hadoop问题截图

HDFS采用的异构的方式,新增服务器的磁盘数量和大小与原集群中的磁盘数量和大小是不一样的,一般在集群扩展的过程中都会出现这个问题,不过Hadoop支持这种异构的方式,回去查看问题原因的时候,发现是在配置文件中挂载磁盘的目录最后一个没有分清楚, and .的区别,直接启动导致的HDFS中的VERSION文件中的datanodeUuid不一致造成的,这个文件在数据目录下面的current目录下,然后在集群的有问题的节点中手动修改UUID的值,使用deamon命令重新启动节点,节点恢复正常。

回顾解决整个问题的过程,先要查看日志,日志中的warning要比error更有用,例如上。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值