spark部署测试

1、下载并解压spark包,注意要和hadoop版本适配。

[root@hadoop01 software]# tar -xzvf spark-3.2.0-bin-hadoop2.7.tgz -C /export/servers/

在这里插入图片描述

2、修改配置文件。

在这里插入图片描述
[root@hadoop01 conf]# vim spark-env.sh

#配置java环境变量
export JAVA_HOME=/export/servers/jdk

#指定Master的IP
export SPARK_MASTER_HOST=hadoop01

#指定Master端口
export SPARK_MASTER_PORT=7077

在这里插入图片描述

[root@hadoop01 conf]# scp -r /export/servers/spark/ hadoop02:/export/servers/
[root@hadoop01 conf]# scp -r /export/servers/spark/ hadoop03:/export/servers/

3、测试服务。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

4、配置高可用spark。

添加环境变量

export SPARK_HOME=/export/servers/spark
export PATH=$PATH:$SPARK_HOME/bin                                     

修改配置文件,注销指定IP,添加如下内容。
[root@hadoop01 conf]# vim spark-env.sh
在这里插入图片描述

[root@hadoop01 conf]# scp spark-env.sh hadoop02:/export/servers/spark/conf/
spark-env.sh                                                                                                                                                                   100% 4778     5.2MB/s   00:00    
[root@hadoop01 conf]# scp spark-env.sh hadoop03:/export/servers/spark/conf/
spark-env.sh        

5、测试高可用spark。

各节点zkServer.sh start启动zookeeper
然后启动spark
在这里插入图片描述

在这里插入图片描述

在hadoop02中单独启动master服务,因为现在mater服务在hadoop01中式alive的,所以这一部分是standby,随时准备好当hadoop01故障时进行转换。
在这里插入图片描述
在这里插入图片描述

6、测试hadoop01的单点故障。

先停掉hadoop01的master服务
在这里插入图片描述
经过了zookeeper高可用的选举,最终hadoop02继承了hadoop01.
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

侬本多情。

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值