非正常关闭hdfs 并且节点还没全部起来就开始格式化

非正常关闭hdfs 并且节点还没全部起来就开始格式化

然后怎么格式化都不会出现集群所有节点出来

解决办法:

1、删除文件重新格式化

可以选择 删除所有节点的/var/hadoop-data/dfs/data/current文件 然后在NN里格式化 就会再次生成了
格式化前 需要 先启动JN hadoop-daemon.sh start journalnode node02 03 04 逐个启动
hdfs格式化命令(hdfs namenode -format)时,这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

2、修改集群id

在/var/hadoop-data/dfs/data/current文件夹下 进入VERSION
在这里插入图片描述
解决办法 将NN的clisterID 复制到其他去 然后单独重启DN
hadoop-daemon.sh start datanode

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值