Spark3.2.0 Standalone集群模式部署教程

Spark 3.2.0 Standalone 集群部署

整体概述

Spark3.2.0 在Centos7 部署安装教程

版本选择

  • jdk-8u202
    重要:Spark3.2.0 版本官网依赖jdk8,8u201之前的版本已经被宣布弃用了;所以jdk 选择8u202(java最后一个免费版)

  • spark-3.2.0-bin-hadoop3.2.tgz
    由于我们是Standalone模式部署,所以不用部署Hadoop集群

  • Scala 2.13.7

安装步骤

整体部署概览

主机名称 ip地址 节点 备注
spark01.bit 192.168.223.3 master
spark02.bit 192.168.223.4 slave
spark03.bit 192.168.223.5 slave
spark04.bit 192.168.223.6 slave
  1. 修改hosts 信息,添加下列信息
 [root@spark01 ~]# vim /etc/hosts

加入

192.168.223.3 spark01.bit
192.168.223.4 spark02.bit
192.168.223.5 spark03.bit
192.168.223.6 spark04.bit
  1. 分发hosts文件到各个节点主机
[root@spark01 ~]# scp /etc/hosts  root@192.168.223.4:/etc/hosts
[root@spark01 ~]# scp /etc/hosts  root@192.168.223.5:/etc/hosts
[root@spark01 ~]# scp /etc/hosts  root@192.168.223.6:/etc/hosts
  1. 生成ras 公私钥对,向各个主机分发自己的秘钥,用于SSH免密登陆
[root@spark01 ~]# ssh-keygen -t ras
[root@spark01 ~]# ssh-copy-id -i  spark02.bit

每台主机都要登陆执行,想另外三台分发自己秘钥,执行方式跟上边一致,就不一一演示了

  1. 分别解压 Jdk、spark、scala 到 /usr/local/ 目录下
    在这里插入图片描述向各个主机分发软件,示例:
[root@spark01 local]# scp -rq  /usr/local/java  root@spark02.bit:/usr/local/
[root@spark01 local]# scp -rq  /usr/local/spark-3.2.0-bin-hadoop3.2  root@spark02.bit:/usr/local 
[root@spark01 local]# scp -rq  /usr/local/scala-2.13.7 root@spark03.bit:/usr/local 
  1. 修改主机 /etc/profiles

                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值