Spark master节点HA配置

博客主要介绍Spark master节点HA配置。该配置需借助Zookeeper实现,要先搭建ZooKeeper集群。配置步骤包括修改所有节点的spark-evn.sh文件、通过--master参数指定多个master节点,最后可查看各节点的webui。

Spark master节点HA配置

1、介绍

Spark HA配置需要借助于Zookeeper实现,因此需要先搭建ZooKeeper集群。

2、配置

2.1 修改所有节点的spark-evn.sh文件

在spark-env.sh文件添加如下环境变量:

#需要将该条目注释掉
#export SPARK_MASTER_IP=master1 

#导入
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=s102:2181,s103:2181,s104:2181 -Dspark.deploy.zookeeper.dir=/spark"  
2.2通过--master参数,指定多个master节点
$>spark-shell --master spark://s101:7077,s102:7077
2.3 查看各节点的webui
http://s101:8080
http://s102:8080

转载于:https://www.cnblogs.com/xupccc/p/9544603.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值