hadoop异常处理之pid文件误删除导致部分hadoop进程无法关闭

本文揭示了Hadoop在Linux环境下/tmp目录存放PID文件可能导致的风险,包括进程混乱和HDFS不可用的问题,并提供了解决方案,即修改PID文件存储位置以避免此问题。

1.问题以及原因

采坑重要,Linux在/tmp目录会定期删除一些文件和文件夹, 如30天周期,当然hadoop进程pid文件存放/tmp目录下时,是有被删除风险,生产中出现过这种情况,重启hadoop,jps进程未减少,但是新的和旧的进程混在了一起,造成了紊乱。

2.模拟pid文件被删除情况

ll /tmp/ #默认在/tmp下,可知存在hdfs进程的三个pid存放文件,cat可得带进程pid
rm -rf hadoop-hadoop-datanode.pid #删除hdfs datanode进程的存放文件此时一切是正常的
jps
hdfs dfs -ls/  #正常使用
~/app/hadoop-2.6.0-cdh5.7.0/sbin/stop-dfs.sh  #此时去关闭hdfs会显示无datanode进程
~/app/hadoop-2.6.0-cdh5.7.0/sbin/start-dfs.sh  #我们再启动hdfs,启动时控制台是没有问题的
但是但是,此时新的和旧的进程混在了一起,造成了紊乱,查看datanode日志启是报错的。这是jps没问题三个进程都在,但是实际hdfs是不可用的。问题较严重,隐藏较深。

3、解决方法:修改hadoop pid文件存储位置

mkdir /data/tmp    #创建pid文件存储目录
chmod -R 777 /data/tmp    
vim ~/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop/hadoop-env.sh #编辑,修改原有的为export HADOOP_PID_DIR=/data/tmp
重启hadoop

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值