关于Hadoop集群的DataNode启动不了的问题是安装Hadoop最常见的坑,下面我介绍五种方法来填坑。
异常提示
- hadoop集群子节点目录下 jps 操作没有显示datanode的进程
- http://master-ip: 8088窗口下:
- java操作hadoop异常提示:Java.io.IOException: Cannot lock storage /usr/hadoop/tmp/dfs/name. The directory is already locked.
出现上述3者情况之一,都是Hadoop集群的DataNode启动不了的情况。
原因
- 多次格式化
hdfs namenode -format
的操作。 - 配置文件错误或者说修改过master配置没有进行格式化后续操作
解决方案
方法一:
在坏死的节点sbin目录下执行下述操作:
sbin/ hadoop-daemon.sh start datanode
sbin/ hadoop-daemon.sh start jobtracker
该方法适用于适用于hadoop异常未正常启动datanode的情况。