Spark单机配置(linux版)

本文详细介绍了如何在单机模式下安装Scala和Spark。首先,通过下载并解压Scala压缩包,然后配置环境变量。接着,验证Scala安装是否成功。之后,解压Spark并同样配置环境变量,修改启动变量文件,设置Java、Scala路径及本地主机IP等。最后,启动Spark并使用jps验证其运行状态。

scala安装

本文中所有软件都以单机模式配置,提供测试学习使用

一、软件解压

cd /usr/local/soft/

  1. 下载压缩包

https://downloads.lightbend.com/scala/2.13.1/scala-2.13.1.tgz

  1. 解压

​ tar -zxvf scala-2.13.1.tgz

  1. 重命名

    mv scala-2.13.1 scala

二、配置环境变量

*export SCALA_HOME=/usr/local/soft/scala*

*export PATH= P A T H : PATH: PATH:SCALA_HOME/bin*

三、验证

scala -version

Spark安装

一、解压

cd /usr/local/soft/

tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz

二、添加环境变量

*export SPARK_HOME=/usr/local/soft/spark-2.1.0-bin-hadoop2.7*

*export PATH= P A T H : PATH: PATH:SPARK_HOME/bin*

三、修改启动变量文件

cd /usr/local/soft/spark-2.1.0-bin-hadoop2.7/conf/

vim spark-env.sh

*export JAVA_HOME=/usr/local/soft/jdk1.8.0_11*

*export SCALA_HOME=/usr/local/soft/scala-2.11.8*

*export SPARK_MASTER_IP=localhost*

*export SPARK_WORKER_MEMORY=1G*

四、启动Spark

cd /usr/local/soft/spark-2.1.0-bin-hadoop2.7/

sbin/start-all.sh

在这里插入图片描述

五、验证

jps
在这里插入图片描述

### 单机环境下配置和部署Spark的指南 #### 1. 准备工作 在开始配置前,确保已经具备以下条件: - 安装了支持的操作系统(如Linux发行Ubuntu、CentOS等)。 - 已经安装并配置好JDK环境,推荐本为Java 8及以上。 #### 2. JDK 的安装与配置 如果没有预先安装JDK,可以按照以下步骤进行安装和配置: ##### (a) 下载JDK压缩包 访问Oracle官方网站或其他可信源下载对应平台的JDK压缩包。如对于Linux系统可以选择`.tar.gz`格式文件[^1]。 ##### (b) 解压至指定目录 将下载好的JDK压缩包解压到目标位置,比如`/usr/local/jdk1.8.0_XXX`: ```bash sudo tar zxvf jdk-8uXXXX-linux-x64.tar.gz -C /usr/local/ ``` ##### (c) 设置JAVA_HOME环境变量 编辑`~/.bashrc`或者`/etc/profile`文件,增加如下内容以定义JAVA_HOME路径以及更新PATH变量: ```bash export JAVA_HOME=/usr/local/jdk1.8.0_XXX export PATH=$JAVA_HOME/bin:$PATH ``` 执行source命令使更改生效: ```bash source ~/.bashrc ``` #### 3. Spark 的安装与配置 接下来介绍如何获取并设置Apache Spark框架本身。 ##### (a) 获取Spark分发包 前往官方站点https://spark.apache.org/downloads.html选取预编译本(Pre-built for Hadoop X.X and later)。假定选择的是`spark-X.Y.Z-bin-hadoopX.X.tgz`。 ##### (b) 将其传输到服务器 借助工具scp或者其他FTP客户端把刚才得到的tgz档案传送到远程机器上的某个临时存储区域。 ##### (c) 展开归档文件 同样采用类似下面这样的方式展开它: ```bash sudo tar xzf spark-X.Y.Z-bin-hadoopX.X.tgz -C /opt/spark/ ``` ##### (d) 调整SPARK_HOME及其他必要参数 如同对待java那样处理spakr home path: ```bash echo 'export SPARK_HOME="/opt/spark"' >> ~/.bashrc echo 'export PATH="$SPARK_HOME/bin:$PATH"' >> ~/.bashrc source ~/.bashrc ``` #### 4. 启动服务 一旦完成了上述所有的准备工作之后就可以轻松地开启我们的第一个应用啦! 简测试一下是否能够正常使用scala交互式shell: ```bash spark-shell --master local[4] ``` 这里我们指定了四个线程作为executor cores的数量来进行并发运算演示[^2]. 另外也可以尝试提交内置样程序spark-pi.jar来估算圆周率π近似值: ```bash $SPARK_HOME/bin/run-example SparkPi 10 ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值