文章目录
- 零、本节学习目标
- 一、Spark开发环境准备工作
- 二、了解Spark的部署模式
- 三、搭建Spark单机版环境
- 四、搭建Spark Standalone集群
- 五、搭建Spark On Yarn集群
- 六、搭建Spark HA集群
零、本节学习目标
- Spark开发环境准备工作
- 了解Spark的三种部署方式
- 搭建Spark单机版环境
- 搭建Spark Standalone集群
- 体验第一个Spark程序
- 在Spark Shell里基本操作
- 初识弹性分布式数据集RDD
一、Spark开发环境准备工作
-
由于Spark仅仅是一种计算框架,不负责数据的存储和管理,因此,通常都会将Spark和Hadoop进行统一部署,由Hadoop中的HDFS、HBase等组件负责数据的存储管理,Spark负责数据计算。
-
安装Spark集群前,需要安装Hadoop环境
软件 | 版本 |
---|---|
Linux系统 | CentOS7.9版本 |
Hadoop | 3.3.4版本 |
JDK | 1.8版本 (jdk8u231) |
Spark | 3.3.2版本 |