Ubuntu18.04安装spark
系统:Ubuntu18.04
java-verison:1.8
hadoop-version:2.x.x
spark-version:2.4.5
安装spark前必须安装hadoop并配置环境变量,若没进行按照或相关配置请查看:https://blog.youkuaiyun.com/LeeGe666/article/details/106050962
下载压缩包
网址输入:
http://spark.apache.org/downloads.html
选择2.4.5版本的
再选择第四个(hadoop和配置有scala)
点击第3步下载即可,下载的文件在用户Downloads文件夹下。
配置spark
解压spark压缩包
sudo tar -zxf ~/Downloads/spark-2.4.5-bin-without-hadoop-scala-2.12.tgz -C /usr/local/
到local目录下:
cd /usr/local
hadoop也是安装在这个目录下的
更换文件夹名称
sudo mv ./spark-2.4.5-bin-without-hadoop-scala-2.12/ ./spark
将hadoop文件夹权限赋予hadoop用户:
sudo chown -R hadoop:hadoop ./spark
下面修改spark的classpath:
先进入spark目录:
cd spark
拷贝配置文件:
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
vim编辑此文件spark-env.sh
vi conf/spark-env.sh
在文件第一行加入:
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
保存并退出。
运行并测试spark
在/usr/local/spark目录下进行
运行实例(计算Pi近似数):
./bin/run-example SparkPi 2>&1 |grep "Pi is"
运行spark-shell:
./bin/spark-shell
在scala中输入某一计算式测试:``
2+5*3
在浏览器输入(改成自己的ip即可)进入前端面板:
http://192.168.230.136:4040/
spark安装成功