spark集群总共三个节点,一个主节点,两个从节点,在master提交了任务运行之后发现两个从节点并未work起来,然后去两个从节点slave01 slave02上查看日志文件,在spark目录下的logs查看日志文件,
发现如下错误信息:
2019-09-19 20:33:57 WARN Worker:87 - Failed to connect to master localhost:7077
org.apache.spark.SparkException: Exception thrown in awaitResult:
at org.apache.spark.util.ThreadUtils$.awaitResult(ThreadUtils.scala:205)
at org.apache.spark.rpc.RpcTimeout.awaitResult(RpcTimeout.scala:75)
at org.apache.spark.rpc.RpcEnv.setupEndpointRefByURI(RpcEnv.scala:101)
at org.apache.spark.rpc.RpcEnv.setupEndpointRef(RpcEnv.scala:109)
at org.apache.spark.deploy.worker.Worker$$anonfun$org$apache$spark$deploy$worker$Worker$$tryRegisterAllMasters$1$$anon$1.run(Worker.scala:243)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)

在Spark集群中,当尝试启动从节点(slave)时,遇到Worker无法连接到Master的问题。检查从节点日志发现错误与Master的防火墙开启有关。通过关闭Master的防火墙并禁止其开机启动,成功启动了从节点的Worker。验证后,从节点已正常参与工作。
最低0.47元/天 解锁文章
956

被折叠的 条评论
为什么被折叠?



