本hadoop集群规划为2台机器做namenode:
最近遇到了一个问题,执行start-dfs.sh的时候,在第一台机器上JPS发现namenode已经启动,可第二台的namenode没有启动。后来,在网上找了一下解决办法,发现是tmp文件夹的问题。具体配置如下
首先在home目录下建立一个目录sudo mkdir tmp
然后修改hadoop/conf目录里面的core-site.xml文件,加入以下节点:
<property>
<name>hadoop.tmp.dir</name>
<value>/haddop2.2.0/tmp</value>
</property>
然后,重新格式化Namenode
hdfs namenode -format
然后启动hadoop
start-all.sh
执行下JPS命令就可以看到NameNode了。
在2台机器构成的Hadoop集群中遇到namenode启动问题,当执行start-dfs.sh脚本时,一台机器上的namenode正常启动,而另一台则无法启动。经过研究,发现故障与tmp目录有关。解决方案可能涉及正确配置该目录以确保集群的正常运行。
574

被折叠的 条评论
为什么被折叠?



