spak-submit提交参数

本文详细介绍了spark-submit的各种参数及其用途,包括master、deploy-mode、class、name等,并提供了实例演示如何使用这些参数来运行Spark应用程序。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

spark-submit参数说明

参数名格式参数说明
–masterMASTER_URLspark://host:port, mesos://host:port, yarn, yarn-cluster,yarn-client, local
–deploy-modeDEPLOY_MODEClient或者master,默认是client
–classCLASS_NAME应用程序的主类
–nameNAME应用程序的名称
–jarsJARS逗号分隔的本地jar包,包含在driver和executor的classpath下
–packages包含在driver和executor的classpath下的jar包逗号分隔的”groupId:artifactId:version”列表
–exclude-packages用逗号分隔的”groupId:artifactId”列表
–repositories逗号分隔的远程仓库
–py-filesPY_FILES逗号分隔的”.zip”,”.egg”或者“.py”文件,这些文件放在python app的PYTHONPATH下面
–filesFILES逗号分隔的文件,这些文件放在每个executor的工作目录下面
–confPROP=VALUE固定的spark配置属性,默认是conf/spark-defaults.conf
–properties-fileFILE加载额外属性的文件
–driver-memoryMEMDriver内存,默认1G
–driver-java-options传给driver的额外的Java选项
–driver-library-path传给driver的额外的库路径
–driver-class-path传给driver的额外的类路径
–executor-memoryMEM每个executor的内存,默认是1G
–proxy-userNAME模拟提交应用程序的用户
–driver-coresNUMDriver的核数,默认是1。这个参数仅仅在standalone集群deploy模式下使用
–superviseDriver失败时,重启driver。在mesos或者standalone下使用
–verbose打印debug信息
–total-executor-coresNUM所有executor总共的核数。仅仅在mesos或者standalone下使用
–executor-coreNUM每个executor的核数。在yarn或者standalone下使用
–driver-coresNUMDriver的核数,默认是1。在yarn集群模式下使用
–queueQUEUE_NAME队列名称。在yarn下使用
–num-executorsNUM启动的executor数量。默认为2。在yarn下使用

案例

/opt/cloudera/parcels/CDH/lib/spark/bin/spark-submit
–class com.goldeneggs.dmfang.data_loading.run.KafkaRun
–master yarn
–deploy-mode client
–driver-memory 2g
–files /etc/hbase/conf/hbase-site.xml
–executor-memory 3g
–executor-cores 2
–conf spark.dynamicAllocation.maxExecutors=50
–name kafka_to_hbase_$1
data-loading-1.0-SNAPSHOT-jar-with-dependencies.jar $1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值