目前的解决的办法
1、先把服务都停掉
$ bin/stop-all.sh
2、格式化namenode
$ bin/hadoop namenode -format
3、重新启动所有服务
$ bin/start-dfs.sh
4、可以进行正常操作了
原因还不明白,学习中。。。
问题是出在我每次start-all 后,关机就直接关机了,没有先执行stop-all ,导致内存里的信息丢失,所以关机前记得执行一次stop-all.sh 就可以了
本文介绍了解决Hadoop服务重启过程中遇到的问题的方法。主要包括停用服务、格式化namenode、重新启动所有服务等步骤。作者指出,直接关机可能导致内存信息丢失,建议在关机前使用stop-all.sh命令。
目前的解决的办法
1、先把服务都停掉
$ bin/stop-all.sh
2、格式化namenode
$ bin/hadoop namenode -format
3、重新启动所有服务
$ bin/start-dfs.sh
4、可以进行正常操作了
原因还不明白,学习中。。。
问题是出在我每次start-all 后,关机就直接关机了,没有先执行stop-all ,导致内存里的信息丢失,所以关机前记得执行一次stop-all.sh 就可以了

被折叠的 条评论
为什么被折叠?