Spark大数据处理讲课笔记搭建Spark开发环境

本文介绍了Spark的三种部署模式:Standalone、Mesos和Yarn,并详细讲解了如何搭建Spark单机版环境,包括安装配置JDK、下载安装Spark、解压及配置环境变量,最后通过SparkPi例子展示了Spark的简单使用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、了解Spark的部署模式
(一)Standalone模式
Standalone模式被称为集群单机模式。该模式下,Spark集群架构为主从模式,即一台Master节点与多台Slave节点,Slave节点启动的进程名称为Worker,存在单点故障的问题。
(二)Mesos模式
Mesos模式被称为Spark on Mesos模式。Mesos是一款资源调度管理系统,为Spark提供服务,由于Spark与Mesos存在密切的关系,因此在设计Spark框架时充分考虑到对Mesos的集成。
(三)Yarn模式
Yarn模式被称为Spark on Yarn模式,即把Spark作为一个客户端,将作业提交给Yarn服务。由于在生产环境中,很多时候都要与Hadoop使用同一个集群,因此采用Yarn来管理资源调度,可以提高资源利用率。
三、搭建Spark单机版环境
(一)前提是安装配置好了JDK
查看JDK版本

(二)下载、安装与配置Spark

1、下载Spark安装包

在这里插入图片描述

 下载链接:Apache Downloads在这里插入图片描述

2、将Spark安装包上传到虚拟机

  • 将Spark安装包上传到ied虚拟机/opt目录

2、将Spark安装包上传到虚拟机

  • 将Spark安装包上传到ied虚拟机/opt目录
  • 在这里插入图片描述

3、将Spark安装包解压到指定目录

  • 执行命令:tar -zxvf spark-3.3.2-bin-hadoop3.tgz -C /usr/local

  • 在这里插入图片描述

    查看解压之后的spark目录

  • 在这里插入图片描述 

    4、配置Spark环境变量

  • 执行vim /etc/profile
  • 在这里插入图片描述

存盘退出,执行命令:source /etc/profile,让环境配置生效

在这里插入图片描述 

(三)使用Spark单机版环境

1、使用SparkPi来计算Pi的值

  • 执行命令:run-example SparkPi 2 (其中参数2是指两个并行度)
  • 在这里插入图片描述

查看计算结果:Pi is roughly 3.1412357061785308

在这里插入图片描述 

执行spark-shell命令,相当于执行spark-shell --master local[*]命令,启动Scala版的Spark-Shell

在这里插入图片描述 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值