Spark提交任务方法

本文介绍了Spark提交任务的三种方式:Standalone、Spark On Yarn的client模式和cluster模式,包括每种模式下启动driver、设置master、配置executor参数等关键步骤,为读者提供了实用的代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Spark提交任务方法有三种
1.StandAlone模式下提交
2.Spark On Yarn - client模式下提交
3.Spark On Yarn - cluster模式下提交
网上有许多这三种方法的原理,我总结一下使用这三种方法要用的代码,供大家参考

1.StandAlone:

	    bin/spark-submit \
	    --class day05.SparkWC2 \
	    --master spark://master:7077,slave1:7077,slave2:7077 \
	    --executor-memory 1G \
	    --total-executor-cores 2 \
	    examples/jars/SparkWC2.jar 

1.在spark-submit下启动driver
2.类方法全名
3.master 可能在的节点 高可用
4.executor进程启动初始化内存(配置里有 可省略)
5.总核心数(配置里有 可省略)
6.jar包

2.SparkOnYarn-Client (控制台可见输出结果)

		全:
		bin/spark-submit \
		--class day07.Demo.Demo.LacTimeDemo \
		--master yarn-client \
		--executor-memory 1G \
		--total-executor-cores 1 \
		/home/hadoop/install/spark/examples/jars/maven_scala.jar \
		 hdfs://192.168.22.80:9000/data/jztl.txt 	hdfs://192.168.22.80:9000/res/jztl

		简:
		bin/spark-submit \
		--class day07.Demo.Demo.LacTimeDemo \
		--master yarn-client \
		/home/hadoop/install/spark/examples/jars/maven_scala.jar 

2.SparkOnYarn-Cluster (8088可见输出结果)

	bin/spark-submit \
	--class day07.Demo.Demo.LacTimeDemo \
	--master yarn-cluster \
	/home/hadoop/install/spark/examples/jars/maven_scala.jar 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值