问题:
failed to launch: nice -n 0 /home/xxx/spark/spark-3.0.2-bin-hadoop2.7/bin/spark-class org.apache.spark.deploy.master.Master --host 1xx.1x.xx.xx --port 7077 --webui-port 8080
反复检查spark-env.sh都没有错,最后发现是spark-defalut.conf中
spark.network.timeout设置的太小,之前是245ms,后来改为了 101345ms
本文解决了一个关于Spark启动失败的问题,具体表现为错误提示“failedtolaunch”,通过调整spark-defaults.conf文件中的spark.network.timeout参数从245ms增加到101345ms解决了该问题。
1万+

被折叠的 条评论
为什么被折叠?



