Hadoop笔记五之--clusterID INcompatible(不相容)

本文详细介绍了Hadoop集群中DataNode进程缺失的常见原因及解决方法,包括检查并同步master和slave的VERSTON文件中的clusterID,确保两者一致,以及在slave中手动启动DataNode进程。此外,文章还强调了在关闭虚拟机前正确关闭Hadoop集群的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一 问题的产生:

出现该问题的原因:

1.在格式化dfs后,非正常启动hadoop;

2 非正常关闭集群

hdfs格式化命令(hdfs namenode -format)时,这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。


当slave中没有DataNode进程原因如下

1.可能是master中没有开启hadoop集群

    sbin/start-all.sh

2 若启动集群后slave仍未有DataNode则在slave中单步启动命令如下;

   sbin/hadoop-daemons.sh start datanode

3 若还是没有DataNode进程,则查看DataNode日志:命令如下:

   首先进入logs日志目录  cd /home/zkpk/hadoop-2.5.2/logs

   查看目录文件  ll -l

  打开Datanode日志

  less hadoop-zkpk-datanode-slave1.log

若出现如图所示错误:

二 解决办法:

分别进入master和slave :VERSTON文件中
  cd /home/zkpk/hadoopdata/dfs/name/current
  vim VERSTON  --->clusterID


  slave:
  cd /home/zkpk/hadoopdata/dfs/data/current
  vim VERSTON  -->clusterID


  两个文件的clusterID保持一致即是master考到slaveclusterID


三 在slave中单步启动DataNode

   sbin/hadoop-daemons.sh start datanode

注释:

为避免master(4个) slave(3个)的进程没有启动完整,所以在关闭虚拟机之前一定先关闭hadoop集群

  命令如

 进入hadoop-2.5.2目录

  cd /home/zkpk/hadop-2.5.2

  sbin/start-all.sh

详情参见:http://www.linuxidc.com/Linux/2014-11/108822.htm

 


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值