大部分转自(红色de石头):http://blog.youkuaiyun.com/red_stone1/article/details/71330101
说道大数据和机器学习,就少不了Spark.本文主要介绍在Linux下搭建单机环境的Spark的步骤。
安装Java SE
1、下载JAVA SE linux版本。下载地址为:
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
注意选择Linux版本,根据机器类型选择32位或者64位。
2、下载jdk-8u131-linux-x64.tar.gz后,解压到自己指定目录。
- 1
3、配置JAVA环境变量。
打开.bashrc文件。
- 1
在.bashrc文件末尾增加如下内容:
- 1
- 2
- 3
- 4
保存后退出,运行如下命令,使修改环境变量即可生效:
- 1
4、检测java是否成功安装。
- 1
- 2
如果显示了java安装的版本,则表示已正确安装,可以进行下一步了。
安装Scala
sudo apt-get install scala
- 1
4、检测scala是否正确安装。
- 1
- 2
若显示如上信息,则表示scala已安装正确。
安装Spark
1、下载Spark的压缩文件。下载地址为:
http://spark.apache.org/downloads.html
2、下载spark-2.1.1-bin-hadoop2.7.tgz后,解压到指定的目录:
- 1
3、配置scala环境变量。
打开.bashrc文件。
- 1
在.bashrc文件末尾增加如下内容:
- 1
- 2
保存后退出,运行如下命令,使修改环境变量即可生效:
- 1
4、检测spark是否正确安装。
- 1
如果出现如下界面,则表示spark已正确安装:
安装sbt
1、下载Spark的压缩文件。下载地址为:
http://www.scala-sbt.org/download.html
2、下载sbt-0.13.15.tgz后,解压到指定的目录:
- 1
3、配置sbt环境变量。
打开.bashrc文件。
- 1
在.bashrc文件末尾增加如下内容:
- 1
- 2
保存后退出,运行如下命令,使修改环境变量即可生效:
- 1
4、建立启动sbt的脚本。
- 1
- 2
- 3
脚本内容如下,注意sbt-launch.jar的路径
- 1
- 2
修改sbt文件的权限
- 1
5、检测sbt是否正确安装。
- 1
- 2
第一次执行的时候会下载很多东西,不用管它,后来就好了。
如果出现sbt的版本信息就表示安装成功。
至此,Linux下Spark单机环境已经成功搭建完毕!