一、安装spark依赖的scala
1、下载和解压缩Scala
下载链接:http://www.scala-lang.org/
[hadoop@h3 software]$ tar -zxvf scala-2.12.6.tgz -C /opt/modules/
2、配置环境变量
[hadoop@h3 scala-2.12.6]$ sudo vim /etc/profile
添加:
export SCALA_HOME=/opt/modules/scala-2.12.6
export PATH=$PATH:$SCALA_HOME/bin
[hadoop@h3 scala-2.12.6]$ source /etc/profile
3、验证Scala
scala -version
![]()
二、安装spark
1、下载解压缩
下载链接地址:http://spark.apache.org/downloads.html
[hadoop@h3 software]$ tar -xzf spark-2.1.0-bin-hadoop2.7.tgz -C /opt/modules/
2、spark相关环境配置
配置环境变量:

最低0.47元/天 解锁文章
624

被折叠的 条评论
为什么被折叠?



