在Hadoop的环境搭建过程中,常常会遇到类似这样的错误信息提示:“could only be replicated to 0 nodes, instead of 1”,产生这样的错误原因有多种,这里列举出以下四种常用的解决方法以供参考:
- 确保master(namenode) 、slaves(datanode)的防火墙已经关闭
- 确保DFS空间的使用情况
- Hadoop默认的hadoop.tmp.dir的路径为/tmp/hadoop-${user.name},而有的linux系统的/tmp目录文件系统的类型往往是Hadoop不支持的。(本人在Ubuntu 10.10下测试伪分布式时就遇到了这种情况)
- 先后启动namenode、datanode(本人没有碰到过这样的情况)
$hadoop-daemon.sh start namenode
$hadoop-daemon.sh start datanode
这里我觉得DFS空间不足是最大的原因,可以通过WEB查看namenode的空间占用率。需要考虑副本数量的情况。
本文详细解析了在Hadoop环境搭建过程中出现的常见错误'could only be replicated to 0 nodes'的原因,并提供了确保master、slaves的防火墙关闭、检查DFS空间使用情况、确认hadoop.tmp.dir路径及考虑副本数量等解决方法。
1295

被折叠的 条评论
为什么被折叠?



