stop-all.sh无法停止hadoop集群

博客指出执行stop-all.sh脚本时提示无namenode等可停止,但jps显示hadoop相关进程仍存在,且hadoop功能正常。原因是该脚本按mapred和dfs进程号关闭,进程号默认存于/tmp,系统会清理临时文件。给出手动杀进程和修改配置文件指定pid存放路径两种解决方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 问题:执行 stop-all.sh 脚本一直提示没有可停止的namenode、datanode、secondarynode。可是输入 jps 命令,发现hadoop 相关进行依旧存在。

提示消息如下:

这是检查hadoop功能依旧正常,能进行进行存储以及计算。

2 产生原因:stop-all.sh 执行的原理是根据mapred和dfs的进程号进行关闭进程的,而这些进程号默认是存储在/tmp目录下,linux系统默认会间隔一段时间的清除临时文件,因此当长时间开启后再次关闭时就无法进行关闭。

3 解决方法:

  1 、比较简单实用的手动的根据pid杀掉现在的进程  使用kill -9 pid (只是暂时性的解决了该问题)

  2、修改配置文件:修改conf/hadoop-env.sh文件,增加export HADOOP_PID_DIR=/root/hadoop/   指定pid文件存放路径。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值