阿里云服务器搭建Hadoop确实有一些坑,以下进行一个错误总结记录 :
!!注意:很多错误应去查看相应节点hadoop home下logs文件夹的内容,看具体报错原因
1. Incompatible clusterIDs
大致意思是说namenode和datanode的clusterIDs不一致,出现这个的原因应该是多次的hdfs namenode -format。
解决办法1:找到从节点Hadoop home目录的datanode的current文件夹,并删除(图中只展示如何找到,删除可使用rm命令)(本人未尝试)
解决办法2:修改datanode的VERSION文件中出clusterID与namenode的VERSION文件中的clusterID一样,先查看namenode的VERSION中的clusterID,再去从节点进行修改
首先主节点的Hadoop home里查看:
其次从节点在Hadoop home 的datanode中修改(data_1和data_2都修改)