mac spark 配置

本文详细介绍在Mac系统中如何安装配置Java(JDK), Scala, Hadoop及Spark, 并在IDEA中进行配置, 为大数据开发提供完整的环境搭建指南。

其实mac ,windos ,linux 配置方法都是一样的,要安装spark,首先要按照hadoop,因为spark的存储依赖hadoop,要按照hadoop,就要安装jdk,因为spark是scala开发的,所有也需要安装sacal.

一、java安装(jdk)

java版本1.8默认系统安装位置:
/Library/Java/JavaVirtualMachines/jdk1.8.0_201.jdk/Contents/Home

二、hadoop安装

不需要

三、scala安装

官网下载Scala:http://www.scala-lang.org/download/
在这里插入图片描述
解压
tar -xzf scala-2.12.6.tgz

配置变量
Mac的环境变量是:vi .bash_profile

export SCALA_HOME=/安装路径/scala-2.12.6
export PATH=$PATH:$SCALA_HOME/bin

验证
终端输入scala

四、spark安装
官网下载安装包:http://spark.apache.org/downloads.html

解压到指定的目录

tar -xzf spark-2.3.1-bin-hadoop2.7.tgz

配置环境变量(Mac是 ~/.bash_profile)

export SPARK_HOME=/Users/liubowen/Downloads/spark-2.3.1-bin-hadoop2.7
export PATH=${PATH}:${SPARK_HOME}/bin

source ~/.bash_profile
打开mac远程登录设置

系统偏好设置 => 共享 => 远程登录
在这里插入图片描述
启动
进入spark安装目录下sbin

./start-all.sh

访问spark页面:http://localhost:8080/
在这里插入图片描述

五、IDEA配置
### 如何在 macOS 上安装和配置 Apache Spark #### 使用 Homebrew 安装 Apache Spark 通过 Homebrew,在 Mac OS 上安装 Apache Spark 是一种简单快捷的方式。只需运行以下命令即可完成安装: ```bash brew install apache-spark ``` 这一步会自动下载并安装最新的 Apache Spark 版本以及其依赖项[^1]。 #### 验证安装 为了验证 Spark 是否成功安装,可以启动 Spark Shell 并测试基本功能: ```bash spark-shell ``` 如果一切正常,你应该能够看到 Spark 的欢迎界面,并进入交互式的 Scala 编程环境[^2]。 #### 手动安装 Apache Spark 除了使用 Homebrew 外,还可以手动下载并解压 Apache Spark 文件包来安装。以下是具体操作方式: 1. 下载官方发布的二进制文件到本地目录。 2. 解压缩该文件至目标路径,例如 `/usr/local/` 或者 `~/Applications/`。 3. 设置环境变量以便于全局调用 Spark 命令工具。 编辑 `.zshrc` 或 `.bash_profile` 添加如下内容: ```bash export SPARK_HOME=/path/to/spark-directory export PATH=$SPARK_HOME/bin:$PATH ``` 随后重新加载 shell 配置文件使更改生效: ```bash source ~/.zshrc # or source ~/.bash_profile depending on your setup. ``` #### 配置 Spark 环境 对于更复杂的场景或者集群模式下的应用开发需求来说,可能还需要进一步调整一些参数设置。比如修改 `conf/spark-env.sh` 脚本来指定 JAVA_HOME 和 HADOOP_CONF_DIR 等重要属性[^4]: ```bash vim $SPARK_HOME/conf/spark-env.sh ``` 在这个脚本里加入必要的定义语句像这样: ```bash export JAVA_HOME=`/usr/libexec/java_home` export HADOOP_CONF_DIR=/your/hadoop/configuration/directory ``` 以上步骤完成后便完成了基础的 spark 开发环境搭建工作流程[^3]。 #### 测试 Spark 应用程序 最后可以通过编写简单的 scala/python 程序来进行实际的功能检验。下面是一个基于 PySpark 计算 pi 值的例子作为参考: ```python from pyspark.sql import SparkSession if __name__ == "__main__": spark = SparkSession.builder.appName("PythonPi").getOrCreate() n = 100000 * spark.sparkContext.defaultParallelism def f(_): from random import random x, y = random(), random() return 1 if x*x + y*y < 1 else 0 count = spark.sparkContext.parallelize(range(1,n+1)).map(f).reduce(lambda a,b:a+b) print("Pi is roughly %f" % (4.0*count/n)) spark.stop() ``` 保存上述代码为 python 文件后执行它就可以得到近似圆周率的结果了!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值