执行时需要传入的参数说明
Usage: spark-submit [options] <app jar | python file> [app options]
| 参数名称 | 含义 |
| --master MASTER_URL | 可以是spark://host:port, mesos://host:port, yarn, yarn-cluster,yarn-client, local |
| --deploy-mode DEPLOY_MODE | Driver程序运行的地方,client或者cluster |
| --class CLASS_NAME | 主类名称,含包名 |
| --name NAME | Application名称 |
| --jars JARS | Driver依赖的第三方jar包 |
| --py-files PY_FILES | 用逗号隔开的放置在Python应用程序PYTHONPATH上的.zip, .egg, .py文件列表 |
| --files FILES | 用逗号隔开的要放置在每个executor工作目录的文件列表 |
| --properties-file FILE | 设置应用程序属性的文件路径,默认是conf/spark-defaults.conf |
| --driver-memory MEM | Driver程序使用内存大小 |
| --driver-java-options | |
| --driver-library-path | Driver程序的库路径 |
| --driver-class-path | Driver程序的类路径 |
| --executor-memory MEM | executor内存大小,默认1G |
| --driver-cores NUM | Driver程序的使用CPU个数,仅限于Spark Alone模式 |
| --supervise | 失败后是否重启Driver,仅限于Spark Alone模式 |
| --total-executor-cores NUM | executor使用的总核数,仅限于Spark Alone、Spark on Mesos模式 |
| --executor-cores NUM | 每个executor使用的内核数,默认为1,仅限于Spark on Yarn模式 |
| --queue QUEUE_NAME | 提交应用程序给哪个YARN的队列,默认是default队列,仅限于Spark on Yarn模式 |
| --num-executors NUM | 启动的executor数量,默认是2个,仅限于Spark on Yarn模式 |
| --archives ARCHIVES | 仅限于Spark on Yarn模式 |
本文详细介绍了使用spark-submit命令提交Spark应用程序时所需的参数及其含义。包括master配置、部署模式、类名、应用名称、依赖管理、资源分配等关键信息,帮助开发者正确配置并高效运行Spark任务。
2696

被折叠的 条评论
为什么被折叠?



