用自己电脑搭建hadoop集群的时候总是会遇到各种奇葩的问题,因为虚拟机总是会比真实的环境差很多的,有些奇葩的问题真是让我郁闷不行不行的~~

像这个问题,搭了三遍的集群遇见各种奇葩问题,最后找了一个终极大招:
但是,但是,前提是,新搭的集群,如果HDFS里面已经有数据了,那就别用了,因为会把你的hadoopdata都清理掉的。
如果,如果,真的确认自己搭建过程没有任何问题,并且配置文件正确,那么:
删除主节点和从节点的hadoopdata文件夹所有的内容,logs日志删不删随意吧,
然后重新格式化主节点,然后重新启动程序看一下
这个方法只能适用于新搭建的集群,因为会删掉HDFS的数据。
所以还是谨慎使用的好。


像这个问题,搭了三遍的集群遇见各种奇葩问题,最后找了一个终极大招:
但是,但是,前提是,新搭的集群,如果HDFS里面已经有数据了,那就别用了,因为会把你的hadoopdata都清理掉的。
如果,如果,真的确认自己搭建过程没有任何问题,并且配置文件正确,那么:
删除主节点和从节点的hadoopdata文件夹所有的内容,logs日志删不删随意吧,
然后重新格式化主节点,然后重新启动程序看一下
这个方法只能适用于新搭建的集群,因为会删掉HDFS的数据。
所以还是谨慎使用的好。
本文分享了在搭建Hadoop集群过程中遇到的各种问题及解决办法,特别是针对新集群HDFS初始化失败的情况,提供了详细的步骤来清除旧数据并重新格式化主节点。

被折叠的 条评论
为什么被折叠?



