spark-submit 提交yarn-client yarn-cluster两种模式的差别

本文详细解析了Spark在YARN集群上的两种提交方式:yarn-client与yarn-cluster。前者适合测试环境,便于调试但可能引起网络流量激增;后者适用于生产环境,虽然调试不便,但能有效避免网络瓶颈。同时,文章提供了具体的Spark作业提交示例。

spark-submit提交给yarn的两种方式总结与区分:

spark-submit提交给yarn有两种方式, 1为yarn-cluster, 2为yarn-client

两种方式的区别

yarn-client主要是用于测试,因为driver运行在本地客户端,负责调度application,会与yarn集群产生大量的网络通信,会导致网卡流量激增!!好处在于直接执行时,本地可以看到所有的log,方便调试

yarn-cluster用户生产环境,以为driver运行在nodemanager,没有网卡流量激增的问题。缺点在于调试不方便,本地用spark-submit提交后,看不到log,只能通过yarn application -logs application_id这种命令来查看,比较麻烦  或者  yarn logs -applicationId application_id

spark作业提交示例:

以下三个示例都可提交上集群 。有一个问题待解决。新增一个节点提交时候总是报jar包找不到,问题挂起,见另一篇文章

spark-submit --class "com.hadoop.init.P_app" --master yarn-cluster --num-executors 2 --executor-cores 1 --executor-memory 6G   app.jar 4

spark-submit --class "com.hadoop.init.P_app" --master yarn-cluster --num-executors 2 --executor-cores 1 --executor-memory 6G --driver-class-path spark_json_lib/druid-1.0.13.jar --driver-class-path spark_json_lib/druid-1.0.23.jar --driver-class-path spark_json_lib/gson-2.7.jar --driver-class-path spark_json_lib/mysql-connector-java-5.1.33.jar  app.jar 4

spark-submit --class "com.hadoop.init.P_app" --master yarn-cluster --num-executors 2 --executor-cores 1 --executor-memory 6G --driver-class-path spark_json_lib/druid-1.0.13.jar  --jars spark_json_lib/druid-1.0.13.jar,spark_json_lib/druid-1.0.23.jar,spark_json_lib/gson-2.7.jar,spark_json_lib/mysql-connector-java-5.1.33.jar app.jar 4

 

<think>我们参考用户提供的引用内容,用户想了解如何使用spark-submitYARN提交Scala程序。根据引用[2]、[3]、[4]的内容,我们可以整理出提交步骤和关键参数说明。 用户提供的引用中,引用[2]和[3]详细说明了spark-submit的基本语法和常用参数,引用[4]展示了一个具体的提交示例。此外,引用[1]和[5]提供了关于获取applicationId和spark-submit类源码的信息,但用户当前的问题集中在提交方法上,因此我们主要关注提交步骤。 提交Scala程序到YARN集群的基本步骤: 1. 确保已经将Scala程序打包成JAR文件(例如使用sbt或maven)。 2. 使用spark-submit脚本提交应用程序,并指定master为yarn,同时选择deploy-mode(clusterclient)。 3. 设置必要的参数,如主类(--class)、应用程序名称、内存、核心数等。 4. 指定应用程序JAR的路径以及应用程序所需的参数。 关键参数说明(针对YARN): - `--master yarn`: 指定集群管理器为YARN- `--deploy-mode`: 可以选择`cluster`(推荐,driver运行在集群中)或`client`(driver运行在提交的机器上)。 - `--class`: 指定主类的全限定名(即包含main方法的类)。 - `--name`: 设置应用程序名称(可选,但有助于识别)。 - 资源相关参数:如`--driver-memory`, `--executor-memory`, `--executor-cores`, `--num-executors`等。 具体示例(参考引用[4]): ```bash spark-submit \ --master yarn \ --deploy-mode cluster \ --driver-memory 500m \ --executor-memory 500m \ --executor-cores 1 \ --class com.example.MainClass \ /path/to/your-application.jar \ [application-arguments] ``` 注意:在提交之前,确保Hadoop和Spark的环境变量已正确配置,并且YARN集群运行正常。 另外,根据引用[1],如果需要在提交后获取applicationId,可以在提交时捕捉标准输出并解析特定模式(如“Yarn Application id: ”后面的字符串)来获取,或者通过SparkContext(在程序中)使用`sc.applicationId`获取(但在cluster模式下,程序已提交到集群,无法直接获取标准输出,所以通常通过日志或YARN的API来获取)。 因此,我们给出以下完整回答: </think>### 使用 spark-submitYARN提交 Scala 程序的方法 #### **1. 基本语法格式** ```bash spark-submit \ --master yarn \ # 指定YARN集群 --deploy-mode <cluster/client> \ # 部署模式 --class <主类全限定名> \ # Scala主类 --jars <依赖库列表> \ # 额外JAR包(可选) <应用程序JAR路径> \ [应用程序参数] ``` #### **2. 关键参数说明** | 参数 | 作用 | 示例 | |------|------|------| | `--master` | 指定集群管理器 | `yarn` | | `--deploy-mode` | 部署模式(集群/客户端) | `cluster`(Driver在YARN运行) | | `--class` | Scala主类全名 | `com.example.MyApp` | | `--driver-memory` | Driver进程内存 | `1g` | | `--executor-memory` | Executor内存 | `2g` | | `--num-executors` | Executor数量 | `4` | | `--conf` | 自定义Spark配置 | `spark.serializer=org.apache.spark.serializer.KryoSerializer` | #### **3. 完整提交示例** ```bash spark-submit \ --master yarn \ --deploy-mode cluster \ # 推荐生产环境使用cluster模式 --driver-memory 2g \ --executor-memory 4g \ --num-executors 5 \ --executor-cores 2 \ --class com.data.MyETLApp \ # 自定义主类名 --jars /lib/dependency1.jar,/lib/dependency2.jar \ /apps/my-spark-app.jar \ # 应用程序JAR路径 input_path=hdfs:///data/input output_path=hdfs:///data/output # 程序参数 ``` #### **4. 验证提交结果** - **查看ApplicationId**: ```scala // 在Spark代码中获取 val appId = spark.sparkContext.applicationId ``` 或在提交后解析日志(引用[1]): ```bash grep "Yarn Application id" spark-submit.log ``` - **监控应用**: 访问YARN Web UI:`http://<yarn-resourcemanager>:8088` #### **5. 注意事项** 1. **JAR包准备**:需提前用`sbt assembly`或`mvn package`打包含依赖的JAR 2. **客户端配置**:确保`HADOOP_CONF_DIR`或`YARN_CONF_DIR`指向正确配置 3. **资源超限处理**:若遇资源不足错误,需调整`--queue`指定YARN队列或增加资源参数 4. **日志定位**:Cluster模式下日志需通过YARN命令查看: ```bash yarn logs -applicationId <your_application_id> ``` > 参考示例:提交词频统计程序(引用[4]修改) > ```bash > spark-submit --master yarn --deploy-mode cluster \ > --class com.bigdata.WordCount \ > --executor-cores 2 \ > /jobs/spark-wc.jar \ > hdfs:///input.txt hdfs:///output > ```
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值