本人出现这句话的来源是:
在hadoop装分布式操作时(hadoop102,103,104),由于配置ssh免密登录时,三台机器用的不是相同用户名,导致在start-dfs.sh时,hadoop102连不上其它机器,还自己不主动结束,就ctal+c强行结束;
也不知道为什么在hadoop103和104已经启动了datanode,为了省事 直接适用了kill -9 12610 把datanode给杀死了;
在104上适用jps,正常显示,在103上就一直出现这句话,重启机器也没用。
解决办法:
1.找到进程号jps
2.ps -ef|grep pid 是否存在
3.假如不存在,我们可以去该/tmp/hsperfdata_用户名(这个是指执行java进程的用户) 去删除。
4.假如存在,当前用户查看就是process information unavailable ,则去切换用户去查看。
原文链接:https://blog.youkuaiyun.com/xjp8587/article/details/80549409
具体这个方法什么意思,我这个小白也不太懂,这个出毛病的pid是12610,按照2这个命令,找到了我的这个出毛病它是在我laybon用户名下操作的,然后我切换到我这个用户名下,去jps查看,发现没有12610这个有毛病的进程了,再切回root之后,也没有这个进程了。
本人的情况就是这样,也不知道为什么,稀奇古怪,希望本人的经验能对其它小白碰巧有用。
博客详细记录了在Hadoop分布式部署过程中遇到的问题,包括因SSH免密登录配置不当导致的连接失败,以及异常进程的查找与清除方法。通过一系列步骤,如使用jps、ps-ef和grep命令定位问题,最终成功解决了datanode启动异常的问题。
713

被折叠的 条评论
为什么被折叠?



