【Spark】(二)Spark2.3.4 集群分布式安装

一、下载Spark安装包

从官网下载:http://spark.apache.org/downloads.html
在这里插入图片描述

二、安装准备

以下安装都可以参照以前的环境搭建博客:
1、Java8安装成功

2、zookeeper安装成功

3、hadoop2.6.0 HA安装成功

4、Scala安装成功(不安装进程也可以启动)

三、Spark安装

在这里插入图片描述
1、上传并解压缩 spark-2.3.4-bin-hadoop2.6.tgz

2、移动到 /opt/soft/spark234 目录下

[root@zj1 opt]# mv spark-2.3.4-bin-hadoop2.6 soft/spark234

3、进入spark/conf修改配置文件

(1)进入配置文件所在目录

[root@zj1 opt]# cd soft/spark234/conf/

(2)复制spark-env.sh.template并重命名为spark-env.sh,并在文件最后添加配置内容

[root@zj1 conf 	]# cp spark-env.sh.template spark-env.sh

export SPARK_MASTER_HOST=192.168.56.137  #主节点IP
export SPARK_MASTER_PORT=7077  #任务提交端口
export SPARK_WORKER_CORES=2  #每个worker使用2export SPARK_WORKER_MEMORY=3g  #每个worker使用3g内存
export SPARK_MASTER_WEBUI_PORT=7979  #修改spark监视窗口的端口默认8080

(3)复制slaves.template成slaves (配置worker节点)

[root@zj1 conf]# cp slaves.template slaves

加入两个workder节点名,如果搭建伪分布式的,这里写localhost 即可

hadoop1
hadoop2
hadoop3

(4)修改sbin下spark-config.sh

export JAVA_HOME=/opt/soft/jdk180
# 这是我jdk的路径

(5)将安装包分发给其他节点

[root@zj1 conf]# scp -r /opt/soft/spark234/ root@zj2:/opt/soft/
[root@zj1 conf]# scp -r /opt/soft/spark234/ root@zj3:/opt/soft/

四、启动Spark

在这里插入图片描述
在这里插入图片描述

五、验证

查看Web界面Master状态
在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值