Hadoop 在关机重启后,namenode启动报错

本文解决了一个常见的Hadoop Namenode启动错误问题,通过配置core-site.xml中的hadoop.tmp.dir属性,将临时目录从易丢失的/tmp路径更改为持久存储位置,确保了Hadoop集群稳定运行。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop 在关机重启后,namenode启动报错:
2011-10-21 05:22:20,504 INFO org.apache.hadoop.hdfs.server.common.Storage: Storage directory /tmp/hadoop-fzuir/dfs/name does not exist.  
2011-10-21 05:22:20,506 ERROR org.apache.hadoop.hdfs.server.namenode.FSNamesystem: FSNamesystem initialization failed.  
org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory /tmp/hadoop-fzuir/dfs/name is in an inconsistent state: storage directory does not exist or is not accessible.  
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:291)  
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:97)  
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:379)  
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:353)  
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:254)  
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:434)  
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1153)  
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1162)  
这个以开始的解决方法是将namenode重新再format下,但是后面想想不对,这样每次都format,那不是玩完了~~
然后就搜了下,发现是因为临时文件/tmp会被删除掉,解决方法就是修改core-site.xml,添加hadoop.tmp.dir属性:
<property>  
    <name>hadoop.tmp.dir</name>  
    <value>/home/fzuir/Hadoop0.20.203.0/tmp/hadoop-${user.name}</value>  
</property>  

问题解决了,重启电脑后,再去启动hadoop就不会出现/dfs/name is in an inconsistent state的错误了~~

转自:http://www.linuxidc.com/Linux/2012-02/55079.htm

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值