Hadoop及spark集群搭建踩过的坑

在搭建Hadoop和Spark集群时遇到问题,包括单个节点的nodemanager无法启动,因主机IP错误导致的通信失败,以及Hadoop的Incompatible clusterIDs错误。通过修正hosts文件、调整clusterID和统一Python版本解决了问题。此外,还遇到了编辑日志的不连续性,通过namenode恢复解决。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本集群总共有三台主机,一台master,两台slave

  • Hadoop有一个节点无法启动

在按照教程子雨大数据之Spark入门教程(Python版)搭建Hadoop集群时,运行jps命令,发现master和其中一个slave能正常工作,运行./bin/yarn node -list发现只有一个alive节点

再次申明:本文只是针对搭建集群中有一个节点无法启动,而不是所有的节点

进一步观察,发现运行jps命令后,未启动节点的nodemanager不能正常启动

根据网上相关的建议在datanode上查看log文件(文件会在启动Hadoop集群时显示其所在目录),发现datanode连接不到主机,进一步查看其连接的主机IP地址,发现同伴将主机IP地址写错了\吐血

将host文件主机的IP地址改正后,重启即可正常运行

  • Incompatible clusterIDs in /usr/local/hadoop/tmp/dfs/data

这个错误出现了两次

第一次是同伴在第一次运行hadoop时,根据上述教程运行了bin/hdfs namenode -format这个命令

还有一次是另一个同伴将从节点关机重启后,master的clusterID就和slaves的不一样了。

解决方式有两种:

第一种:把配置文件hdfs.site.xml中dfs.datanode.data.dir在本地系统的路径下的current/VERSION(一般$HADOOP/tmp/dfs/data/current文件夹下)中的clusterID改为与namenode一样。重启即可!

第二种:重装一遍hadoop集群,删除tmp和log文件夹后重新向slaves节点发送一遍hadoop文件夹

注意:这会删除HDFS中原有的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值