Spark是Scala写的,是运行在JVM环境上,需要java7以上;
如果要安装python API,则要安装python 2.6或者python3.4以上;
搭建Spark不需要Hadoop 集群,如果已经有hadoop集群,则下载相应版本的spark;
1.安装JDK
参考:
https://blog.youkuaiyun.com/vvv_110/article/details/72897142
https://blog.youkuaiyun.com/wengyupeng/article/details/52410564
1-1 使用命令getconf LONG_BIT 查看Linux系统的位数,然后下载相应版本的JDK
1-2 Oracle JDK1.8下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
1-3 安装jdk-8u181-macosx-x64.dmg
1-4 查看JDK安装路径
/usr/libexec/java_home -V
1-5 进入用户目录(即,主目录,表示为~),创建一个.bash_profile的隐藏配置文件,如果已经存在配置文件,直接打开
cd ~
touch .bash_profile(用户配置文件;/etc/profile是系统配置文件)
open -e .bash_profile
1-6 输入
JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_40.jdk/C