stop-all.sh 命令无法停止hadoop集群

本文详细阐述了在使用Hadoop集群过程中遇到的无法停止集群的问题,并提供了通过检查和手动停止相关进程、重新启动集群及修改脚本代码来解决此问题的方法。通过执行这些步骤,可以确保Hadoop集群在必要时能够被正确地停止。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近一直都在研究 Mahout算法,hadoop集群也没怎么改动;今天突然想停了hadoop 集群,但是发现根本停不下来。执行  ./bin/stop-all.sh 命令一直提示没有可停止的job、task、namenode、datanode、secondarynode。可是输入 jps 命令,发现hadoop 已经启动了,而且 HDFS连接正常。后来在同事的指导下,明白了;原来 hadoop启动后,进程信息默认保存在 /tmp 文件夹。信息如下:

-rw-rw-r-- 1 hadoop hadoop    5 Aug  5 11:04 hadoop-hadoop-datanode.pid
-rw-rw-r-- 1 hadoop hadoop    5 Aug  5 11:04 hadoop-hadoop-jobtracker.pid
-rw-rw-r-- 1 hadoop hadoop    5 Aug  5 11:04 hadoop-hadoop-namenode.pid
-rw-rw-r-- 1 hadoop hadoop    5 Aug  5 11:04 hadoop-hadoop-secondarynamenode.pid
-rw-rw-r-- 1 hadoop hadoop    5 Aug  5 11:04 hadoop-hadoop-tasktracker.pid


而 /tmp 文件夹会定时清空,所以一段时间后,hadoop的进程信息都会被删除掉;这样你下次停止集群的时候,就会停止不了。

解决方法:

1. 参考 stop-all.sh 脚本文件代码,手动停止所有相关进程。

停止顺序: job 、task、namenode、datanode、secondarynode

2. 重新启动集群,再次查看 /tmp 文件夹,你会看到以上进程信息。这个时候执行 stop-all.sh 命令能正常关闭 hadoop集群了。

3. 如果你不想每次都这么麻烦,可以修改脚本代码。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值