spark-on-yarn模式配置

本文介绍如何在已有的Hadoop集群上配置并运行Spark应用程序。主要内容包括:在系统配置文件中设置Hadoop和Spark环境变量,配置Spark环境变量,以及通过YARN模式提交Spark作业。

前期依赖,正常的集群,包括jdk、hadoop、spark.
- 1.在etc/profile里面增加如下几段,有了的就不用重复了

##hadoop
export HADOOP_HOME=/soft/hadoop-2.7.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

- 2 在/spark/conf/spark-env.sh最后面加上如下配置

export JAVA_HOME=/soft/jdk1.8.0_65
export SPARK_MASTER_HOST=192.168.56.130
export SPARK_MASTER_PORT=7077
export HADOOP_HOME=/soft/hadoop-2.7.3
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

- 3 执行下列语句就可以了,sparkAPi指的是你要运行的路径.类名(比如com.zouzou.sparkApi,我写的主程序是sparkApi,前面的都是包名称),–master yarn就表示是以yarn模式运行。arg[0],arg[1]之类的是程序需要的参数
- /soft/spark/bin/spark-submit –class sparkApi –master yarn sparkjob-1.0-SNAPSHOT.jar arg[0] arg[1]

<think>我们参考用户提供的引用内容,用户想了解如何使用spark-submit在YARN上提交Scala程序。根据引用[2]、[3]、[4]的内容,我们可以整理出提交步骤和关键参数说明。 用户提供的引用中,引用[2]和[3]详细说明了spark-submit的基本语法和常用参数,引用[4]展示了一个具体的提交示例。此外,引用[1]和[5]提供了关于获取applicationId和spark-submit类源码的信息,但用户当前的问题集中在提交方法上,因此我们主要关注提交步骤。 提交Scala程序到YARN集群的基本步骤: 1. 确保已经将Scala程序打包成JAR文件(例如使用sbt或maven)。 2. 使用spark-submit脚本提交应用程序,并指定master为yarn,同时选择deploy-mode(cluster或client)。 3. 设置必要的参数,如主类(--class)、应用程序名称、内存、核心数等。 4. 指定应用程序JAR的路径以及应用程序所需的参数。 关键参数说明(针对YARN): - `--master yarn`: 指定集群管理器为YARN- `--deploy-mode`: 可以选择`cluster`(推荐,driver运行在集群中)或`client`(driver运行在提交的机器上)。 - `--class`: 指定主类的全限定名(即包含main方法的类)。 - `--name`: 设置应用程序名称(可选,但有助于识别)。 - 资源相关参数:如`--driver-memory`, `--executor-memory`, `--executor-cores`, `--num-executors`等。 具体示例(参考引用[4]): ```bash spark-submit \ --master yarn \ --deploy-mode cluster \ --driver-memory 500m \ --executor-memory 500m \ --executor-cores 1 \ --class com.example.MainClass \ /path/to/your-application.jar \ [application-arguments] ``` 注意:在提交之前,确保Hadoop和Spark的环境变量已正确配置,并且YARN集群运行正常。 另外,根据引用[1],如果需要在提交后获取applicationId,可以在提交时捕捉标准输出并解析特定模式(如“Yarn Application id: ”后面的字符串)来获取,或者通过SparkContext(在程序中)使用`sc.applicationId`获取(但在cluster模式下,程序已提交到集群,无法直接获取标准输出,所以通常通过日志或YARN的API来获取)。 因此,我们给出以下完整回答: </think>### 使用 spark-submit 在 YARN 上提交 Scala 程序的方法 #### **1. 基本语法格式** ```bash spark-submit \ --master yarn \ # 指定YARN集群 --deploy-mode <cluster/client> \ # 部署模式 --class <主类全限定名> \ # Scala主类 --jars <依赖库列表> \ # 额外JAR包(可选) <应用程序JAR路径> \ [应用程序参数] ``` #### **2. 关键参数说明** | 参数 | 作用 | 示例 | |------|------|------| | `--master` | 指定集群管理器 | `yarn` | | `--deploy-mode` | 部署模式(集群/客户端) | `cluster`(Driver在YARN运行) | | `--class` | Scala主类全名 | `com.example.MyApp` | | `--driver-memory` | Driver进程内存 | `1g` | | `--executor-memory` | Executor内存 | `2g` | | `--num-executors` | Executor数量 | `4` | | `--conf` | 自定义Spark配置 | `spark.serializer=org.apache.spark.serializer.KryoSerializer` | #### **3. 完整提交示例** ```bash spark-submit \ --master yarn \ --deploy-mode cluster \ # 推荐生产环境使用cluster模式 --driver-memory 2g \ --executor-memory 4g \ --num-executors 5 \ --executor-cores 2 \ --class com.data.MyETLApp \ # 自定义主类名 --jars /lib/dependency1.jar,/lib/dependency2.jar \ /apps/my-spark-app.jar \ # 应用程序JAR路径 input_path=hdfs:///data/input output_path=hdfs:///data/output # 程序参数 ``` #### **4. 验证提交结果** - **查看ApplicationId**: ```scala // 在Spark代码中获取 val appId = spark.sparkContext.applicationId ``` 或在提交后解析日志(引用[1]): ```bash grep "Yarn Application id" spark-submit.log ``` - **监控应用**: 访问YARN Web UI:`http://<yarn-resourcemanager>:8088` #### **5. 注意事项** 1. **JAR包准备**:需提前用`sbt assembly`或`mvn package`打包含依赖的JAR 2. **客户端配置**:确保`HADOOP_CONF_DIR`或`YARN_CONF_DIR`指向正确配置 3. **资源超限处理**:若遇资源不足错误,需调整`--queue`指定YARN队列或增加资源参数 4. **日志定位**:Cluster模式下日志需通过YARN命令查看: ```bash yarn logs -applicationId <your_application_id> ``` > 参考示例:提交词频统计程序(引用[4]修改) > ```bash > spark-submit --master yarn --deploy-mode cluster \ > --class com.bigdata.WordCount \ > --executor-cores 2 \ > /jobs/spark-wc.jar \ > hdfs:///input.txt hdfs:///output > ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值