Flume采集日志遇到Hadoop的datanode为0的解决方案。

本文解决了一个在使用Flume采集日志时遇到的问题:Hadoop的datanode未启动。通过调整hdfs-site.xml配置文件中的namenode.name.dir和datanode.name.dir路径设置,确保两个路径下的clusterID一致来解决此问题。

      Flume采集日志的时候报hadoop的datanode为0。(具体报错语句忘了......)

      在hadoop目录下输入jps,发现datanode没启动。只有namenode等。

      这是因为之前format过namenode导致的(调试的过程中瞎搞结果造成了后遗症。),不知道是否还会有其他情况造成datanode不启动。

      解决教程:http://jingyan.baidu.com/article/3c343ff7e75e9e0d36796347.html

      在部署hadoop过程中自己配置过的hdfs-site.xml中找到配置的目录:如下图

145405_INJA_2478308.png

找到namenode.name.dir和datanode.name.dir的路径中的dfs目录下的name和data中current目录下的VERSION下的clusterID统一即可,将namenode的clusterID复制给datanode。

转载于:https://my.oschina.net/u/2478308/blog/734630

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值