1.安装jdk
jdk下载地址
然后一步一步安装jdk就可以了。
检测jdk是否安装成功:
java -version
2.安装scala
Scala下载地址
解压Scala包
配置.bash_profile 文件,没有就重建一个
export SCALA_HOME=你自己的scala的安装目录/scala-2.12.2/
export PATH=
PATH:
SCALA_HOME/bin
3.安装spark
spark下载目录
a.解压spark包
b.配置.bash_profile 文件
export SPARK_HOME=spark 安装目录/spark-2.1.1-bin-hadoop2.7/:
export PATH=
PATH:
SPARK_HOME/bin
c.打开系统设置中–>共享—> 远程登陆
d.查看用户目录是否有.ssh/,没有就重新生成
e.进入到spark安装目录的sbin/目录下,执行 ./start-all 启动spark
执行jps 命令
f.进入到spark安装目录的bin/目录下,执行 ./spark-shell,看spark 是否安装成功
如果出现这个,说明spark安装成功
本文详细介绍了如何在本地环境中安装并配置Java、Scala和Spark。首先通过官方渠道下载JDK,按照步骤完成安装,并验证其正确安装。接着,提供Scala的下载链接,指导读者解压并配置环境变量。最后,深入解析Spark的安装过程,包括解压、环境配置及启动等关键步骤。
2042

被折叠的 条评论
为什么被折叠?



