Mac下spark的安装和完整的开发环境搭建

本文详细介绍了在Mac系统下安装Spark、JDK、Scala、Hadoop的相关步骤,包括配置环境变量和使用IntelliJ IDEA进行开发。通过免密登录配置、选择与Spark版本匹配的组件,确保环境的兼容性。最后,文章提到了如何启动Scala和Python Shell进行测试。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Spark是Scala写的,是运行在JVM环境上,需要java7以上;
如果要安装python API,则要安装python 2.6或者python3.4以上;
搭建Spark不需要Hadoop 集群,如果已经有hadoop集群,则下载相应版本的spark;

1.安装JDK
参考:
https://blog.youkuaiyun.com/vvv_110/article/details/72897142
https://blog.youkuaiyun.com/wengyupeng/article/details/52410564

1-1 使用命令getconf LONG_BIT 查看Linux系统的位数,然后下载相应版本的JDK
1-2 Oracle JDK1.8下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
1-3 安装jdk-8u181-macosx-x64.dmg
1-4 查看JDK安装路径

/usr/libexec/java_home -V

1-5 进入用户目录(即,主目录,表示为~),创建一个.bash_profile的隐藏配置文件,如果已经存在配置文件,直接打开

cd ~
touch .bash_profile(用户配置文件;/etc/profile是系统配置文件)
open -e .bash_profile

1-6 输入

JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_40.jdk/C
Spark是一个高效的分布式计算框架,用于处理大规模数据集。下面简要介绍如何在本地环境中搭建Spark。 ### 一、准备工作 #### (一)JDK安装 由于Spark是基于Java开发的,因此首先需要确保计算机上已经正确配置了JDK环境,并设置好JAVA_HOME等系统变量。 #### (二)Scala下载与安装(可选) 虽然现在大多数版本的Spark自带了Scala库文件,但如果想要运行特定版本,则仍需单独下载并安装对应版本的Scala语言工具包。 ### 二、获取Apache Spark软件包 可以直接从官方网站https://spark.apache.org/downloads.html选择合适的稳定版进行下载;如果是在企业内部网络环境下部署的话,也可以通过公司提供的镜像源地址来加快下载速度。 ### 三、解压并配置环境变量 将压缩包上传到目标机器后,在Linux或Mac OS X平台上可以利用tar命令快速完成解压缩工作: ```bash tar -xzf spark-x.x.x-bin-hadoopx.x.tgz ``` 接着修改.bashrc文件添加SPARK_HOME以及PATH路径: ```bash export SPARK_HOME=/path/to/spark-directory export PATH=$SPARK_HOME/bin:$PATH source ~/.bashrc #刷新环境变量使之生效 ``` 对于Windows用户来说则应该把相应的目录加入系统的Path列表里头去。 ### 四、启动测试实例验证是否成功 打开终端输入`pyspark` 或者 `spark-shell`(取决于你使用的主程序编写脚本的语言),如果没有报错就说明基本可用啦! 以上就是在普通PC端建立单节点模式下的简易步骤,实际生产场景下还需要考虑集群管理组件如Hadoop YARN/Zookeeper/Kubernetes的支持情况哦~
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值