Spark安装

目录

首先我们在spark官网上下载spark安装包

上传

 配置spark-env.sh

配置slaves 

配置historyserver 

分发

 启动Spark Master 和Slaves以及HistoryServers

首先我们在spark官网上下载spark安装包

https://spark.apache.org/downloads.html

在最下面版本存档里找到与我们之前搭建的Hadoop2.7.5版本对应的spark2.2.0安装包

等待下载完成

上传

使用Secure CRT 将下载好的spark安装包上传到node01的export/softwares下面

cd /export/softwares/
rz -E

 如图,就是我们Hadoop的各个组件,将spark解压到export/serves目录下

tar -zxvf spark-2.2.0-bin-hadoop2.7.tgz -C ../servers/
cd /export/servers/

 配置spark-env.sh

先将spark-env.sh.template复制为spark-env.sh

cd /spark-2.2.0-bin-hadoop2.7/conf
cp spark-env.sh.template spark-env.sh

指定Java home 

export JAVA_HOME=/export/servers/jdk1.8.0_141

指定sparkmaster地址 

export SPARK_MASTER_HOST=node01

export SPARK_MASTER_PORT=7077

配置slaves 

指定从节点位置,从而使用sbin/start-all.sh可以启动整个集群的work 

cd /export/servers/spark/conf
cp slaves.template slaves
vi slaves

 

配置从节点位置 

 node01

node02

node03

三台机器都是从节点

配置historyserver 

a默认情况下,spark程序运行完毕后就不能查看运行记录的Web UI了,通过HistoryServer可以提供一个服务,通过读取日志文件,使得我们可以在程序运行后,依然能够查看运行过程

b 复制 spark-defaults.conf,以供修改spark-defaults.conf

cp spark-defults.conf.template spark-defults.conf
vi spark-defults.conf

 c 将以下内容复制到“spark-defaults.conf”,末尾处,通过这段配置,可以指定spark将日志传输进HDFS中。

spark.eventLog.enabled    true

spark.eventLog.dir        hdfs://node01:8020/spark_log

spark.eventLog.compress   true

 d 将以下内容复制到”spark-env-sh”的末尾,配置HistoryServer启动参数,使得HistoryServer在启动的时候读取HDFS中写入的spark日志

export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=4000 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://node01:8020/spark_log"

 e 为spark创建HDFS中的日志目录

hdfs dfs -mkdir -p /spark_log

分发

将spark安装包分发给集群中的其他机器 

cd /export/serves
scp -r spark-2.2.0-bin-hadoop2.7 node02:$PWD
scp -r spark-2.2.0-bin-hadoop2.7 node03:$PWD

 

cd /export/serves/ spark-2.2.0-bin-hadoop2.7
sbin/start-all.sh
sbin/start-history-server.sh

 

 Jps查看node01进程

 Jps查看node02进程

### 如何在不同操作系统上安装 Apache Spark #### 安装前准备 为了确保顺利安装 Apache Spark,在任何操作系统下都需要先确认已正确安装 Java 环境以及设置好 JAVA_HOME 变量。对于某些特定场景,可能还需要额外配置 Hadoop 或其他依赖项[^3]。 #### Mac OS 上的安装方式 利用 Homebrew 工具可以让 macOS 用户轻松完成 Spark 的部署工作。通过终端执行命令 `brew install apache-spark` 即可快速获取最新稳定版 Spark 并自动处理大部分必要的初始化操作[^1]。 #### Linux 发行版上的安装指南 大多数主流 Linux 发行版支持通过包管理器来简化软件安装流程。例如 Ubuntu/Debian 类系统可以通过 APT 软件库下载官方二进制文件;而 CentOS/RHEL 则推荐采用 yum 或者 dnf 来获得 RPM 打包好的版本。除此之外,也可以直接前往官方网站下载 tarball 文件解压至自定义路径再手动调整 PATH 参数指向 bin 目录下的工具链[^4]。 #### Windows 下的手动安装过程 Windows 用户通常会选择从官网获取预编译压缩包形式发布的 Spark 版本。解压缩之后需自行设定 SPARK_HOME 和更新系统的 Path 设置以便全局调用 spark-shell 等 CLI 实用程序。值得注意的是由于缺乏原生 POSIX 支持所以在 Win 平台上可能会遇到兼容性问题因此建议考虑借助 WSL (Windows Subsystem for Linux) 进行跨平台开发测试活动。 ```bash # 使用 Homebrew 在 MacOS 上安装 Spark $ brew install apache-spark # 在 Debian/Ubuntu 上使用 apt-get 安装 Spark $ sudo apt-get update && sudo apt-get install -y apache-spark # 在 RedHat/CentOS/Fedora 上使用 yum/dnf 安装 Spark $ sudo yum install -y epel-release $ sudo yum install -y apache-spark # 解压并设置环境变量(适用于所有平台) export SPARK_HOME=/path/to/spark export PATH=$SPARK_HOME/bin:$PATH ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值