linux下kill -9 不能强制杀掉spark-submit进程
问题:在python编辑器中运行spark程序时,忘记加spark.stop()停止spark,所以每提交一次程序就多一个spark-submit进程,而且sparkUI的端口号还被占用了。这时候用kill -9 spark-submit_pid无法杀死spark-submit进程原因: kill -9发送SIGKILL信号将其终止,但是以下两种情况不起作用:a、该进程处...
原创
2018-11-25 15:57:13 ·
4947 阅读 ·
0 评论