Ubuntu18.04安装spark2.4.5

系统:Ubuntu18.04
java-verison:1.8
hadoop-version:2.x.x
spark-version:2.4.5

安装spark前必须安装hadoop并配置环境变量,若没进行按照或相关配置请查看:https://blog.youkuaiyun.com/LeeGe666/article/details/106050962

下载压缩包

网址输入:
http://spark.apache.org/downloads.html
选择2.4.5版本的
再选择第四个(hadoop和配置有scala)
在这里插入图片描述
点击第3步下载即可,下载的文件在用户Downloads文件夹下。

配置spark

解压spark压缩包

sudo tar -zxf ~/Downloads/spark-2.4.5-bin-without-hadoop-scala-2.12.tgz -C /usr/local/

到local目录下:

cd /usr/local

hadoop也是安装在这个目录下的
更换文件夹名称

sudo mv ./spark-2.4.5-bin-without-hadoop-scala-2.12/ ./spark

将hadoop文件夹权限赋予hadoop用户:

sudo chown -R hadoop:hadoop ./spark

下面修改spark的classpath:
先进入spark目录:

cd spark

拷贝配置文件:

cp ./conf/spark-env.sh.template ./conf/spark-env.sh

vim编辑此文件spark-env.sh

vi conf/spark-env.sh

在文件第一行加入:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

在这里插入图片描述

保存并退出。

运行并测试spark

在/usr/local/spark目录下进行
运行实例(计算Pi近似数):

./bin/run-example SparkPi 2>&1 |grep "Pi is"

在这里插入图片描述
运行spark-shell:

./bin/spark-shell

运行spark
在scala中输入某一计算式测试:``

2+5*3

在这里插入图片描述

在浏览器输入(改成自己的ip即可)进入前端面板:
在这里插入图片描述
http://192.168.230.136:4040/
在这里插入图片描述
spark安装成功

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值