Spark local模式和stand alone(HA)模式原理

本文详细介绍了Spark的local模式和standalone模式的工作原理,包括如何在local模式下运行多个程序,以及如何配置standalone集群。同时,讨论了standalone模式的HA(高可用)设置,当主Master故障时,备用Master如何接管。此外,还概述了一个Spark程序的运行层次结构,以及4040端口对应的应用程序监控。

1.SPARK的local模式原理

在这里插入图片描述
在这里插入图片描述
local[4]的角色图,两个程序可以运行
在这里插入图片描述
运行spark local[*]模式
在这里插入图片描述
也可以向spark中提交已经写好的python程序,spark- submit

在这里插入图片描述
local模式总结
在这里插入图片描述

2.SPARK的standalone原理

在这里插入图片描述
在这里插入图片描述
spark的standalone环境配置,主要是spark-env.sh,在worker文件里面指定workers,配置好之后要分发到其他节点上,3台服务器,一台是master和worker,另外两台均为worker。

在这里插入图片描述
运行sbin/start-all.sh之后,会打开集群所有节点,这里可以查看网页的端口,node1:8080。
在这里插入图片描述

3.SPARK程序运行层次结构

在这里插入图片描述
一个spark程序的运行层次
4040相当于application
在这里插入图片描述
小结
在这里插入图片描述

4.standalone的HA模式运行原理

High Availability(高可用)
在这里插入图片描述
在这里插入图片描述
配置中将master注释掉,并添加上HA模式,在第一个alive的master被kill之后,会第二个standby的master激活。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值