1.jps所在的位置
[hadoop@hadoop ~]$ which jps
/usr/java/jdk1.8.0_144/bin/jps

2.对应的进程号标识文件存储在哪里?
如下图,会存储在/tmp/hsperfdata_用户名(在这里用户是hadoop)

对/tmp/hsperfdata_hadoop/目录下的namenode进程10003进行mv操作,接下来ll发现正常,但是当jps在此查看的时候发现namenode的进行100003已经自动被清理如下图:

但是ps -ef查看namenode的进程还是存在的,如下图:

访问hdfs的50070端口也还是正常的

另外一个如果jps看到如下的效果(在此的效果不是很明显,在CDH上会很直观)

总结:当看见 process information unavailable不能代表进程是存在 或者不存在,要当心,jps命令拿的内容就是前边提到的/tmp/hsperfdata_hadoop目录下的文件名。像前边mv修改完文件名之后系统自动步骤清理此目录,尽管jps之后看不到任何内容,也不能说明进程的状态是正常还是已经挂掉。所以尤其使用jps命令来做脚本状态检测的一般使用经典的 ps -ef | grep xxx命令去查看进程是否存在,这才是真正的状态检测。
但是用ps -ef这种方式又可能会存在另外一种情况:比如spark thriftserver +hive 会启动一个driver 进程 110,默认端口号 10001。由于该程序的内存泄露或者某种bug,导致进程ps是存在的,10001端口号下线了,就不能够对外提供服务。所以在生产上做任何程序的状态检测,必须通过端口号来。
博客介绍了jps所在位置及进程号标识文件存储位置,指出jps命令查看结果不能代表进程真实状态,建议用ps -ef | grep xxx查看。同时提到ps -ef方式也有局限,如程序内存泄露时进程存在但端口下线,生产上做程序状态检测需通过端口号。
3万+

被折叠的 条评论
为什么被折叠?



