spark 2.3.1 Standalone+zookeeper 集群

本文介绍如何通过配置Zookeeper实现Spark集群的高可用性,包括修改spark-env.sh文件以加入Zookeeper配置、设置重master节点、启动及测试故障转移的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 修改spark-env.sh 文件加入zookeeper配置(http://spark.apache.org/docs/latest/configuration.html#deploy 具体配置说明)

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=sky1:2181,sky2:2181,sky3:2181"

  修改完后,同步到其它节点

2. 修改spark 重master节点,(例 指定sky1为重master节点)

   vim spark-env.sh

export SPARK_MASTER_HOST=sky1

 3.启动重master节点

   

./sbin/start-master.sh 

 4. 查看重master节点服务状态 是否为 STANDBY

    http://ip:8080

   

 5. 测试

    杀掉主master节点,等一段时间是否可自动切换到重master节点

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值