1.5.1.2 Spark的部署与安装

本文详细介绍了Spark的三种部署方式:单机模式、Spark-Mesos和Spark-YARN,并重点讲解了如何在Hadoop集群上搭建Spark 1.3.3完全分布式环境。包括安装前的软件需求、环境变量配置、关键配置文件修改及集群启动过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

总目录:https://blog.youkuaiyun.com/qq_41106844/article/details/105553392

Hadoop - 子目录:https://blog.youkuaiyun.com/qq_41106844/article/details/105553369

 

Spark的部署方式

单机Spark

一般用于测试。

Spark-Mesos

与Spark有血缘关系,性能匹配最好。

Spark-Yarn

基于Hadoop集群,这种实用性最广。

安装Spark

安装前准备:jdk8,hadoop2.7集群,scala2.10以上的软件包,spark2.X软件包。
本次安装基于1.3.3完全分布式搭建
虽然spark是scala语言编写的,但是因为scala和java的混编特性,只要有java环境就可以安装spark了。
scala软件包解压和spark解压路径一致即可。
首先解压spark软件包:

 
20155953-f82ffd1640f6eb3b.png
解压

 

配置环境变量:
/etc/profile

 

 
20155953-96cb1e2858450aae.png
环境变量

 

修改配置文件:
之后来到spark目录中的conf目录,这个目录里面放的就是spark所有的配置项。
这个目录中的文件都是以template结尾的模板文件,将slaves和spark-env.sh拷贝出来。

 

 
20155953-c724db6f968986e7.png
配置项

 

然后在slaves中添加所有节点。

 

 
20155953-8f97f0fab2c9da66.png
slaves

 

然后配置我们的spark-env.sh:

 

 
20155953-89e379fd028361b6.png
配置

 

同时修改一下启动关闭项的名称,防止和hadoop的冲突。

 
20155953-73cff799a3829ff0.png
修改启动项

传输到其他节点:

 
20155953-a1c32915b5945a9c.png
传输到slave1
 
20155953-19cfe0be4669be89.png
传输到slave2

启动集群:

 

 
20155953-821eca0fbeb8cc34.png
启动hadoop

 

 

 
20155953-8a2931d332969957.png
启动spark

 

 
20155953-d3c0985334c93de3.png
主节点jps

 

master是spark主节点标识,worker是任务容器。

 

 
20155953-748fff1a01ec2f91.png
从节点jps
 
20155953-e2bd5bed882db671.png
从节点jps
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

寒 暄

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值