hadoop3.0 启动后输入 jps没有进程

【注】1、启动集群之后,输入jps,发现没有任何返回。原因就是你的JDK版本不对。其次

hadoop集群格式化完成后,启动集群成功,jps没有进程
原因:
java的进程好没有没记录到tmp文件夹下.

问题

在这里插入图片描述

解决

1、重新更换一个JDK版本即可,不过这里 source /etc/profile 好像没用,建议重启。
2、按下面链接中的方案操作,亲测有效

解决方案

楼主找了好久,才找到的解决方案,特来分享给大家,希望对大家有帮助

接下来有

衍生问题:jps只显示一个jps进程

问题描述

[lxm@hadoop102 hadoop-3.1.3]$ jps
10254 jps

解决方案
1、删除集群中hadoop所有的data和logs文件夹,然后 hdfs namenode -format 格式化
2、最后在重启 sbin/start-dfs.sh

要搭建Hadoop 3.0集群,您可以按照以下步骤进行操作: 1. 安装JDK:确保在所有节点上安装了Java Development Kit(JDK)。 2. 配置SSH免密码登录:确保所有节点之间可以进行SSH免密码登录。您可以使用ssh-keygen命令生成公钥和私钥,并将公钥拷贝到所有节点上。 3. 下载Hadoop:从Apache Hadoop官方网站下载最新版本的Hadoop 3.0,并解压缩到所有节点的相同目录。 4. 配置Hadoop环境变量:在每个节点的.bashrc文件中设置Hadoop环境变量。例如,在节点的.bashrc文件中添加以下内容: ```bash export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 然后使用source命令使其生效。 5. 配置Hadoop集群:在所有节点上编辑Hadoop配置文件,包括core-site.xml、hdfs-site.xml和yarn-site.xml。确保在配置文件中设置正确的主机名和端口号。 6. 格式化HDFS:在主节点上运行以下命令来格式化HDFS: ```bash hdfs namenode -format ``` 7. 启动Hadoop集群:在主节点上运行以下命令来启动Hadoop集群: ```bash start-dfs.sh start-yarn.sh ``` 8. 验证Hadoop集群:使用以下命令检查Hadoop集群是否成功启动: ```bash jps ``` 您应该能够看到NameNode、DataNode、ResourceManager和NodeManager等进程正在运行。 这些步骤应该可以帮助您搭建Hadoop 3.0集群。请注意,这只是一个基本的指南,具体的步骤可能会因您的环境而有所不同。在进行生产环境部署之前,请确保详细阅读Hadoop官方文档并遵循最佳实践。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值