Hadoop 克隆虚拟机后Datanodes只能显示一个的问题

环境:

VMWare 15.0
3台虚拟机Centos 7
Hadoop 2.4.1

从spark2克隆一台虚拟机,然后改名为spark4后做了以下步骤:

1. 更改主机名
vi /etc/hostname

2.修改IP地址

vi /etc/sysconfig/network-scripts/ifcfg-eno16777736  (后面这个数字每台机器可能不一样)
修改内容:
IPADDR=192.168.115.9

3.重启服务
service network restart

然后重启hadoop,在页面:http://spark1:50070/dfshealth.html#tab-datanode

Datanodes始终只有3台datanode,并且spark2与spark4只会出现一台。

原因:

因为是克隆的,/usr/local/data/datanode/current/VERSION文件的storageID、

datanodeUuid完全相同,把克隆后的spark4里面这两个配置随便修改一下,然后

重启datanode服务就可以了:

hadoop-daemon.sh stop datanode
hadoop-daemon.sh start datanode

当您在克隆的两虚拟机搭建 Hadoop 集群时,如果发现只有其中一机器显示 `jps` 命令的结果,这通常意味着 Hadoop 的一些组件没有成功启动或者配置没有同步。`jps` 是 Hadoop 中的 JobTracker(Hadoop 1.x)或 YARN Resource Manager(Hadoop 2.x 及以后)用来查看正在运行的 Java 进程的工具。 以下是几个可能的原因和解决步骤: 1. **配置不一致**:检查每机器的 Hadoop 配置文件(如 `core-site.xml`, `hdfs-site.xml`, 和 `yarn-site.xml`),确保它们的内容完全一致,特别是关于 Master地址(如 Namenode 或 ResourceManager 的地址)。 2. **服务启动顺序**:确保在启动 Hadoop 服务时,Master节点先于 Worker 节点启动,并且在启动时没有跳过关键的服务(如 NameNode, DataNode, ResourceManager, NodeManager)。 3. **环境变量**:检查每机器的环境变量设置,尤其是 `HADOOP_HOME`, `HADOOP_CONF_DIR`, 和 `JAVA_HOME` 等,确保指向正确的安装路径。 4. **服务状态检查**:使用 `service hadoop [namenode|datanode|resourcemanager|nodemananger] status` 或 `hadoop-daemon.sh start/stop [component]` 来确认服务是否正在运行或已成功停止。 5. **防火墙和安全组**:确保网络访问设置正确,包括防火墙规则和虚拟机之间的端口通信。 6. **日志检查**:查看 Hadoop 日志文件(通常是 `/var/log/hadoop/*` 或 `/usr/hadooplogs/*`),查找错误信息,以便定位问题所在。 完成以上排查后,如果还是只有一个节点显示 jps 的结果,可以尝试重启整个集群,或者在有问题的节点单独运行 `jps` 看看其他服务是否已经启动。同时别忘了检查相关日志,这对诊断问题非常重要。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值