hadoop2.2.0中遇到的错误

在配置Hadoop 2.2.0高可用(HA)时遇到启动问题,尝试清空tmp目录、增加data目录等方法无效。最终通过集群完全格式化解决了问题。建议参照官方文档进行HA设置和部署。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2014-07-19 12:37:36,071 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: For namenode slave01/192.168.1.200:8020 using DELETEREPORT_INTERVAL of 300000 msec  BLOCKREPORT_INTERVAL of 21600000msec Initial delay: 0msec; heartBeatInterval=3000
2014-07-19 12:37:36,071 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in BPOfferService for Block pool BP-43828691-192.168.1.202-1397486921243 (storage id DS-432295278-192.168.1.201-50010-1395406357356) service to slave01/192.168.1.200:8020
java.lang.NullPointerException
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.sendHeartBeat(BPServiceActor.java:439)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.offerService(BPServiceActor.java:525)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:676)
    at java.lang.Thread.run(Thread.java:744)
2014-07-19 12:37:41,072 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: For namenode slave01/192.168.1.200:8020 using DELETEREPORT_INTERVAL of 300000 msec  BLOCKREPORT_INTERVAL of 21600000msec Initial delay: 0msec; heartBeatInterval=3000
2014-07-19 12:37:41,073 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in BPOfferService for Block pool BP-43828691-192.168.1.202-1397486921243 (storage id DS-432295278-192.168.1.201-50010-1395406357356) service to slave01/192.168.1.200:8020
java.lang.NullPointerException
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.sendHeartBeat(BPServiceActor.java:439)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.offerService(BPServiceActor.java:525)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:676)
    at java.lang.Thread.run(Thread.java:744)
2014-07-19 12:37:46,073 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: For namenode slave01/192.168.1.200:8020 using DELETEREPORT_INTERVAL of 300000 msec  BLOCKREPORT_INTERVAL of 21600000msec Initial delay: 0msec; heartBeatInterval=3000
2014-07-19 12:37:46,074 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in BPOfferService for Block pool BP-43828691-192.168.1.202-1397486921243 (storage id DS-432295278-192.168.1.201-50010-1395406357356) service to slave01/192.168.1.200:8020
java.lang.NullPointerException
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.sendHeartBeat(BPServiceActor.java:439)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.offerService(BPServiceActor.java:525)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:676)

    at java.lang.Thread.run(Thread.java:744)


我这里配置的是HA,记得之前测试的时候没问题的。最近使用spark,启动hadoop集群的时候就出现了这个问题。google半天,有说清空tmp目录的,有说增加data目录的。反正在我这里都没有作用。无奈之下我重新格式化了整个集群。之后再启动集群就没有这个问题了。


HA下怎么格式化,怎么进行HA设置部署,请参照官方文档吧。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值