配置之前,查看各个之间的版本适配情况:

由于spark是scala语言开发的,所以安装spark之前需要先安装Scala
下载地址:
Scala:https://www.scala-lang.org/download/2.11.8.html
spark:http://archive.apache.org/dist/spark/spark-2.0.0/
scala 的安装:

解压缩到指定位置,
打开~/.bashrc,进行配置
export SCALA_HOME=/usr/local/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin

spark 的安装:

配置环境的语句,在上图的截图中
配置成功:

可修改配置文件,将日志等级从‘info’,改为‘WARN’
本文介绍如何安装配置Spark与Scala,首先需要下载Scala并解压缩到指定位置,然后配置环境变量。接着下载Spark并进行相应的配置,可以通过修改配置文件来调整日志等级。
2055

被折叠的 条评论
为什么被折叠?



