重启hadoop的namenode报错解决方法

重启hadoop的namenode一些报错的解决方法

1、提示挂载失败
2013-02-16 15:20:22,057 ERROR org.apache.hadoop.hdfs.server.namenode.FSNamesystem: FSNamesystem initialization failed.
org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory /mnt/nfs/hadoop/filesystem/name is in an inconsistent state: storage directory does not exist or is not accessible.
        at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:288)
        at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:97)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:386)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:360)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:276)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:496)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1279)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1288)
2013-02-16 15:20:22,059 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory /mnt/nfs/hadoop/filesystem/name is in an inconsistent state: storage directory does not exist or is not accessible.
        at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:288)
        at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:97)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:386)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:360)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:276)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:496)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1279)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1288)


解决方法:
mount -t nfs -o rw 172.16.3.188://usr/local/public /mnt/nfs


2、重启hadoop块损坏
WARNING : There are about 8 missing blocks. Please check the log or run fsck.
解决方法:
hadoop fsck /
......................................................................Status: CORRUPT
 Total size:    1522487447167 B
 Total dirs:    37291
 Total files:   48370 (Files currently being written: 7)
 Total blocks (validated):      68699 (avg. block size 22161711 B) (Total open file blocks (not validated): 6)
  ********************************
  CORRUPT FILES:        8
  MISSING BLOCKS:       8
  MISSING SIZE:         7621473 B
  CORRUPT BLOCKS:       8
  ********************************
 Minimally replicated blocks:   68691 (99.98836 %)
 Over-replicated blocks:        0 (0.0 %)
 Under-replicated blocks:       615 (0.89520955 %)
 Mis-replicated blocks:         0 (0.0 %)
 Default replication factor:    3
 Average block replication:     3.026507
 Corrupt blocks:                8
 Missing replicas:              2460 (1.1831588 %)
 Number of data-nodes:          6
 Number of racks:               1
FSCK ended at Sat Feb 16 15:58:35 CST 2013 in 2182 milliseconds




The filesystem under path '/' is CORRUPT




3、hbase报错
org.apache.hadoop.hbase.regionserver.HRegionServer:
> NotServingRegionException; Region is not online


解决方法:
run :./hbase hbck
重启Hadoop服务是一种常见的故障排查步骤,尤其适用于分布式系统。以下是重启Hadoop服务的基本步骤,针对的是基于Linux环境下的Hadoop集群: 1. **停止Hadoop服务**:首先,你需要停止当前正在运行的服务。如果是HDFS,可能需要关闭NameNode(`sudo service hdfs namenode stop`)和DataNodes(`stop-datanode`)。如果是MapReduce/YARN,停止ResourceManager(`sudo stop-yarn-resourcemanager`)和NodeManager(`sudo stop-yarn-nodemanager`)。 2. **等待服务停止**:确保每个服务都已经完全停止,这可能需要一些时间。你可以在日志文件中查看进程状态,或者使用`jps`命令查看JVM进程。 3. **检查配置文件**:在重启之前,确保所有的配置文件都正确无误,特别是那些可能影响到启动的文件,如hadoop-site.xml、core-site.xml等。 4. **重启服务**:现在,你可以开始重启服务。同样地,分别使用`start-hdfs-namenode`、`start-datanode`(对于HDFS)或`start-yarn-resourcemanager`、`start-yarn-nodemanager`(对于YARN)来启动各个节点。 5. **监控日志**:服务重启后,密切关注Hadoop的启动日志,看看是否有报错信息。这些日志通常会在`/var/log/hadoop`(取决于你的安装路径)的文件夹下。 6. **验证服务状态**:通过命令行工具(如`jps`,`hadoop dfsadmin -report` 或 `yarn nodes`)检查服务是否已经启动并且运行正常。 通过重启服务,有时候可以解决临时的问题或者清除内存中的临时数据,但如果是配置错误或硬件故障引起的,则可能需要进一步调查和修复。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值