mac单机部署spark

前提:

使用的是bash

mac操作系统自带软件已经有 java 和 python

配置好JAVA_HOME环境变量

若是linux需要先安装此两个软件


步骤一:安装scala

scala-2.12.3 下载地址:https://downloads.lightbend.com/scala/2.12.3/scala-2.12.3.tgz

1. 解压scala-2.12.3.tgz

进入下载的目录,执行下面指令

# tar -zxf scala-2.12.3.tgz

完成后会有一个新的目录scala-2.12.3

重命名这个目录

# mv scala-2.12.3 scala

2. 移动 scala 到个人安装软件的目录,本人是 /usr/local

# sudo mv spark /usr/local (需要使用root权限,输入个人密码吧)

3. 设置环境变量,修改 .bash_profile (没有就自己新建一个吧)

# vim ~/.bash_profile

添加新的一行

export SCALA_HOME=/usr/local/scala

4. 修改path

# vim /etc/paths

添加新的一行

/usr/local/scala/bin

Scala安装完成

重新加载环境变量

# source ~/.bash_profile

5. 测试是否安装成功

重启命令行工具,然后执行下面命令

# scala

此时如果进入scala命令工具则成功了,退出只需要输入 :q


步骤二:安装单机spark

1. 下载spark

下载地址:https://d3kbcqa49mib13.cloudfront.net/spark-2.2.0-bin-hadoop2.6.tgz

2. 解压、重命名、移动到软件安装目录(参考步骤一)

# tar -zxf spark-2.2.0-bin-hadoop2.6.tgz

# mv spark-2.2.0-bin-hadoop2.6 spark

# sudo mv spark /usr/local

3. 修改path(参考步骤一)

新增两行

/usr/local/spark/bin

/usr/local/spark/sbin

4. 测试是否安装成功

重启命令行工具,然后执行下面命令

# pyspark

结果如下


➜  ~ pyspark
Python 2.7.10 (default, Feb  7 2017, 00:08:15)
[GCC 4.2.1 Compatible Apple LLVM 8.0.0 (clang-800.0.34)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
17/09/29 12:13:19 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
17/09/29 12:13:26 WARN ObjectStore: Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0
17/09/29 12:13:26 WARN ObjectStore: Failed to get database default, returning NoSuchObjectException
17/09/29 12:13:26 WARN ObjectStore: Failed to get database global_temp, returning NoSuchObjectException
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.2.0
      /_/


Using Python version 2.7.10 (default, Feb  7 2017 00:08:15)
SparkSession available as 'spark'.
>>>


恭喜

退出只要 按 ctrl + d

### 单机部署Spark 3.2.0指南 对于希望在单台机器上安装并运行Apache Spark 3.2.0版本的用户来说,可以遵循如下配置方法来完成环境搭建。 #### 安装Java 由于Spark基于JVM构建,因此需要先确认已安装适当版本的Java JDK。建议使用OpenJDK 8或以上版本。可以通过命令`java -version`验证当前系统的Java版本[^1]。 #### 下载Spark二进制包 前往官方下载页面获取预编译好的适用于Hadoop的Spark压缩文件。选择适合操作系统的tarball格式,并解压到期望目录下: ```bash wget https://downloads.apache.org/spark/spark-3.2.0/spark-3.2.0-bin-hadoop3.2.tgz tar xvf spark-3.2.0-bin-hadoop3.2.tgz cd spark-3.2.0-bin-hadoop3.2/ ``` #### 配置环境变量 为了方便调用spark-shell或其他CLI工具,在~/.bashrc 或 ~/.zshrc 文件中添加SPARK_HOME路径以及将其加入PATH: ```bash export SPARK_HOME=/path/to/spark-3.2.0-bin-hadoop3.2 export PATH=$PATH:$SPARK_HOME/bin source ~/.bashrc # or source ~/.zshrc depending on shell used ``` #### 启动本地模式下的Master和Worker节点 通过设置`master="local"`参数启动Spark Shell或者其他应用程序,这会使得所有计算都在同一进程中执行而无需真正启动集群服务程序: ```scala val conf = new SparkConf().setAppName("MyApp").setMaster("local[*]") val sc = new SparkContext(conf) ``` 当涉及到自定义成本评估器类用于适应性执行时,如果未指定,则Spark将默认采用自身的SimpleCostEvaluator实现。 #### 测试安装成功与否 最后一步是测试新安装是否正常工作。尝试启动交互式的Python(Pyspark)或者Scala(Spark-shell)解释器来进行简单查询以检验一切就绪: ```bash pyspark --master local[*] # 或者 spark-shell --master local[*] ``` 一旦进入REPL界面即表示基本配置已完成,现在可以在单机环境中开发和调试Spark应用了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值