出现上述问题可能是格式化两次hadoop,导致没有datanode
解决办法是:在所有datanode节点上找到/root/hadoop/data里面的current文件夹删除
然后从新执行一下 hadoop namenode -format
再使用start-dfs.sh和start-yarn.sh 重启一下hadoop
用jps命令看一下就可以看见datanode已经启动了
当Hadoop被格式化两次时,可能会导致DataNode节点消失。为修复此问题,需要在所有datanode节点上删除/root/hadoop/data下的current文件夹,然后重新执行hadoop namenode -format,再通过start-dfs.sh和start-yarn.sh重启Hadoop。执行jps命令验证datanode已成功启动。
出现上述问题可能是格式化两次hadoop,导致没有datanode
解决办法是:在所有datanode节点上找到/root/hadoop/data里面的current文件夹删除
然后从新执行一下 hadoop namenode -format
再使用start-dfs.sh和start-yarn.sh 重启一下hadoop
用jps命令看一下就可以看见datanode已经启动了
1580
2779
3234

被折叠的 条评论
为什么被折叠?