1、运行后遇到了hdfs专用的9000端口没有启动
Directory /tmp/hadoop-javoft/dfs/name is in an inconsistent state: storage directory does not exist or is not accessible.这里的目录既然是在tmp下面的,回忆一下,tmp目录下的文件是临时文件会被定期删除的,貌似bug已经露出水面。那就重启计算机试试是不是因为这,重启之前检查一下tmp目录下面确定几个format namenode之后应该有的目录都有的,重启之后,发现全部被删掉。在执行一次 start-dfs.sh,看到tmp目录下面建了一些目录,但是dfs/name目录仍然不存在,在start-dfs.sh时候建了一部分目录和文件。而dfs/name需要在hadoop namenode -format时建立。问题清楚了。
解决方案就很简单,这些目录的位置都是根据hadoop.tmp.dir的位置确定的,所以只需要在conf/core-site.xml覆盖hadoop.tmp.dir的默认值即可:
...
<property>
<name>hadoop.tmp.dir</name>
<value>/home/javoft/Documents/hadoop/hadoop-${user.name}</value>
<description>A base for other temporary directories.</description>
</property>
...
如此问题解决。。。
本文解决了Hadoop启动过程中遇到的9000端口未启动的问题,详细分析了问题原因,并提供了修改hadoop.tmp.dir配置的具体步骤。
2567

被折叠的 条评论
为什么被折叠?



