spark HA
spark-2.4.0-bin-hadoop2.7.tgz
vim spark-env.sh
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER "
export SPARK_DAEMON_JAVA_OPTS="${SPARK_DAEMON_JAVA_OPTS} -Dspark.deploy.zookeeper.url=Arvin01:2181,Arvin02:2181,hds:2181"
vim slaves
node1
node2
node3
spark 启动
./sbin/start-all.sh
jps
node1有Master Worker
其他节点只有Worker,Master需手动启动。
web port:8080
博客围绕 Spark HA 展开,介绍了使用的文件 spark-2.4.0-bin-hadoop2.7.tgz,通过 vim 编辑 spark-env.sh 和 slaves 文件进行配置。还说明了 Spark 启动后,node1 有 Master 和 Worker,其他节点只有 Worker,Master 需手动启动,web 端口为 8080。

696

被折叠的 条评论
为什么被折叠?



