第一个spark程序(wordcount)

本文详细介绍了如何从Spark的四种部署模式开始,搭建Spark集群,并通过交互式命令行`spark-shell`和`spark-submit`提交任务。重点讲述了如何编写并执行WordCount程序,包括读取本地或HDFS文件,以及理解Spark的lazy执行特性。同时,提供了在IDEA中开发Spark程序的步骤,包括创建Maven工程,打包,上传并执行jar包。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一.spark的四种部署模式

1.本地模式(local)

不指定master,或者–master local
local:只是用一个cores local[N]:使用N个cores local[*]:使用所有的cores

2.standalone 集群模式 spark框架自带的模式

–master standalone的master地址
eg: –master spark://linux01:7077

3.yarn集群模式

把spark任务运行在yarn平台
–master yarn

4.mesos集群模式

把spark任务运行在mesos平台
–master mesos

以standalone集群模式为主

二.spark集群启动

前提:在linux虚拟机上安装部署好spark集群,设置好环境变量

1.单独启动(停止)master或worker

start-master.sh stop-master.sh
start-slaves.sh stop-slaves.sh

2.一键启动(停止)spark集群

start-all.sh
stop-all.sh

三.运行Spark程序

1.两种方式:

在客户端提交任务,客户端可以在任意地方,只要他连接了spark集群
1)spark-shell (其实它也调用了spark-submit)
spark的交互式命令行,多用于本地测试程序
默认是local模式,在本地使用多线程来模拟分布式程序。
eg: spark-shell –master spark://linux01:7077

2)spark-submit
用于提交spark程序到sp

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值