Spark集群搭建

Standalone集群的架构
Master--node1
Worker--node2
Worker--node3
Worker--node4
Spark的Standalone集群搭建的准备工作

把Spark安装包spark-1.6.3-bin-hadoop2.6.tgz拷贝到node1节点
使用tar -zxvf spark-1.6.3-bin-hadoop2.6.tgz进行解压

修改进入conf下配置文件的名字

在这里插入图片描述
使用mv命令,改完名字浏览如下图所示
在这里插入图片描述

修改slaves配置文件内容

slaves配置文件里面放的是从节点的IP
所以,将node02,node03,node04放入slaves中
[注意要竖着写,一行一个,行尾不要空格不然会出现解析错误]
在这里插入图片描述
修改spark-env.sh内容
SPARK_MASTER_PORT字段设置主节点的IP
SPARK_MASTER_IP字段设置端口(用来Master与Worker的心跳,资源通信)
SPARK_WORKER_CORES代表每一个worker进程能管理几个核(有几个核的支配权)。
[注]如果CPU是4核8线程,那么这个核是支持超线程的核。
如果是普通的核,一个核在一个时刻只能处理一个线程。
这个配置是根据当前节点的资源情况来配置的,如果节点有8个core,并且支持超线程,此时可以将这个节点看成由16个core组成。
SPARK_WORKER_MEMORY字段代表每个worker可以管理多大内存。
SPARK_WORKER_DIR配置worker路径
SPARK_WORKER_INSTANCES设置每个节点上启动的worker进程数。
配置完成如下(为了防止找不到JAVA_HOME,手动设置了一下)
在这里插入图片描述

将配置好的文件发往其他节点

scp -r spark-1.6.3 root@node2: ‘pwd’
scp -r spark-1.6.3 root@node3:‘pwd’
scp -r spark-1.6.3 root@node4:‘pwd’
注意:此处的‘’不是上引号,是制表符上面和波浪线一起的符号

将启动命令改名

进入sbin目录下,找到start-all.sh文件(此文件与hadoop的start.sh冲突),将其改为:start-spark.sh

mv start-all.sh start-spark.sh
运行:start-spark.sh

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
集群成功启动

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值