Spark on Yarn 和MapReduce on Yarn对比

          Apache Spark的高性能一定程度上取决于它采用的异步并发模型(这里指server/driver端采用的模型),这与Hadoop 2.0(包括YARN和MapReduce)是一致的。Hadoop 2.0自己实现了类似Actor的异步并发模型,实现方式是epoll+状态机,而Apache Spark则直接采用了开源软件Akka,该软件实现了Actor模型,性能非常高。尽管二者在server端采用了一致的并发模型,但在任务级别(特指 Spark任务和MapReduce任务)上却采用了不同的并行机制:Hadoop MapReduce采用了多进程模型,而Spark采用了多线程模型。

注意,本文的多进程和多线程,指的是同一个节点上多个任务的运行模式。无论是MapReduce和Spark,整体上看,都是多进 程:MapReduce应用程序是由多个独立的Task进程组成的;Spark应用程序的运行环境是由多个独立的Executor进程构建的临时资源池构成的。

多进程模型便于细粒度控制每个任务占用的资源,但会消耗较多的启动时间,不适合运行低延迟类型的作业,这是MapReduce广为诟病的原因之一。 而多线程模型则相反,该模型使得Spark很适合运行低延迟类型的作业。总之,Spark同节点上的任务以多线程的方式运行在一个JVM进程中,可带来以 下好处:

1)任务启动速度快,与之相反的是MapReduce Task进程的慢启动速度,通常需要1s左右;

2)同节点上所有任务运行在一个进程中,有利于共享内存。这非常适合内存密集型任务,尤其对于那些需要加载大量词典的应用程序,可大大节省内存;

3)同节点上所有任务可运行在一个JVM 进程(Executor)中,且Executor 所占资源可连续被多批任务使用,不会在运行部分任务后释放掉,这避免了每个任务重复申请资源带来的时间开销,对于任务数目非常多的应用,可大大降低运行时间。与之对比的是MapReduce中的Task:每个 Task 单独申请资源,用完后马上释放,不能被其他任务重用,尽管1.0 支持JVM 重用在一定程度上弥补了该问题,但2.0 尚未支持该功能。

尽管Spark 的过线程模型带来了很多好处,但同样存在不足,主要有:

1)由于同节点上所有任务运行在一个进程中,因此,会出现严重的资源争用, 难以细粒度控制每个任务占用资源。与之相反的是MapReduce,它允许用户单独为Map Task 和Reduce Task 设置不同的资源,进而细粒度控制任务占用资源量,有利于大作业的正常平稳运行。

下面简要介绍MapReduce的多进程模型和Spark 的多线程模型。

(1) MapReduce 多进程模型

 

1) 每个Task 运行在一个独立的JVM 进程中;

2) 可单独为不同类型的Task 设置不同的资源量,目前支持内存和CPU 两种资源;

3) 每个Task 运行完后,将释放所占用的资源,这些资源不能被其他Task 复用,即使是同一个作业相同类型的Task。也就是说,每个Task 都要经历“申请资源—> 运行Task –> 释放资源”的过程。

(2) Spark 多线程模型

 

1) 每个节点上可以运行一个或多个Executor 服务;

2) 每个Executor 配有一定数量的slot,表示该Executor 中可以同时运行多少个ShuffleMapTask 或者ReduceTask;

3) 每个Executor 单独运行在一个JVM 进程中,每个Task 则是运行在Executor中的一个线程;

4) 同一个Executor 内部的Task 可共享内存,比如通过函数SparkContext#broadcast 广播的文件或者数据结构只会在每个Executor 中加载一次,而不会像MapReduce 那样,每个Task 加载一次;

5) Executor 一旦启动后,将一直运行,且它的资源可以一直被Task 复用, 直到Spark 程序运行完成后才释放退出。

总体上看,Spark 采用的是经典的scheduler/workers 模式,每个Spark 应用程序运行的第一步是构建一个可重用的资源池,然后在这个资源池里运行所有的ShuffleMapTask 和ReduceTask(注意,尽管Spark 编程方式十分灵活, 不再局限于编写Mapper 和 Reducer,但是在Spark 引擎内部只用两类Task 便可表示出一个复杂的应用程序,即ShuffleMapTask 和ReduceTask),而 MapReduce 应用程序则不同,它不会构建一个可重用的资源池,而是让每个Task 动态申请资源,且运行完后马上释放资源。

原文链接:https://blog.youkuaiyun.com/u013063153/article/details/75168893

<think>嗯,我现在要配置Spark on YARN,但是我对这个过程还不是很熟悉。让我先回忆一下之前学过的相关知识,然后一步步理清楚应该怎么做。首先,Spark on YARN是什么意思呢?我记得YARN是Hadoop的资源管理系统,而Spark作为一个计算框架,可以运行在YARN上,这样就能利用YARN资源管理功能,不需要Spark自己来管理集群资源了。对吧? 那配置Spark on YARN的前提条件应该有哪些呢?首先,肯定需要安装好Hadoop,并且YARN已经正确配置运行。可能还需要确保Hadoop的版本Spark兼容。然后,Spark本身也需要安装好,对吗?另外,可能需要设置一些环境变量,比如HADOOP_CONF_DIR或者YARN_CONF_DIR,让Spark知道YARN的配置文件在哪里。这部分我记得不太清楚,可能需要查文档确认。 接下来,具体的配置步骤可能包括修改Spark的配置文件,比如spark-defaults.conf,或者在提交应用通过命令行参数指定。例如,设置spark.master为yarn,这样Spark就知道要连接到YARN集群。对吗?另外,可能需要配置一些资源参数,比如executor的内存、核心数等,这些参数可以通过Spark的配置项或者提交任务指定。 用户提到的配置,可能需要关注几个关键点:首先是Hadoop配置的集成,然后是Spark本身的配置,还有资源分配调优的参数。可能还需要考虑权限问题,比如用户是否有权限在YARN上提交应用,或者HDFS的访问权限等。另外,网络配置是否正确,比如各个节点之间能否互相通信,端口是否开放,这些也可能影响Spark on YARN的运行。 有没有可能遇到常见的问题呢?比如Spark应用提交到YARN后,无法申请到资源,或者Executor启动失败。这候可能需要查看YARN的日志,或者Spark的日志,排查具体原因。例如,资源不足,配置错误,或者类路径问题。比如,有候需要把Spark的依赖包上传到HDFS,或者在YARN的配置中指定,这样NodeManager能够找到这些依赖。 再想想具体的步骤,可能需要这样: 1. 确保Hadoop YARN已经正确安装配置,并且正在运行。 2. 下载并安装Spark,解压到合适的目录。 3. 配置环境变量,比如在spark-env.sh中设置HADOOP_CONF_DIR或YARN_CONF_DIR,指向Hadoop的配置文件目录。 4. 在Spark的配置文件spark-defaults.conf中设置spark.master为yarn。 5. 可能需要配置Spark的执行参数,比如spark.executor.memory,spark.executor.cores等。 6. 将应用提交到YARN集群,使用spark-submit命令,并指定deploy-mode为cluster或者client。 还有,不同的部署模式(cluster vs client)有什么区别呢?Cluster模式下,Driver运行在YARN的Application Master中,而Client模式下,Driver运行在提交任务的客户端机器上。这可能影响到日志的查看应用的稳定性,比如如果客户端断开连接,Client模式的应用可能会失败。 另外,关于Spark on YARN资源分配,YARN负责管理资源,所以需要正确设置Spark资源参数,使其不超过YARN集群的总资源。例如,每个executor的内存不能超过YARN容器允许的最大值,否则会被拒绝。可能需要调整YARN的配置参数,比如yarn.scheduler.maximum-allocation-mb,yarn.nodemanager.resource.memory-mb等,以适应Spark的需求。 还有,可能需要注意Spark的依赖问题。当Spark应用提交到YARN,需要确保所有的依赖包都能被YARN的NodeManager访问到。可以通过--jars参数指定额外的jar包,或者将依赖打包到应用的jar文件中。另外,可能需要设置spark.yarn.jars或spark.yarn.archive,将Spark的库上传到HDFS,这样每次提交应用不需要重复上传,节省间。 现在,有没有遗漏的步骤或者配置项?比如,安全方面的配置,比如Kerberos认证,如果Hadoop集群启用了安全模式,那么Spark提交任务需要进行相应的认证处理。这候可能需要使用keytab文件或者kinit命令获取凭证。 再检查一下,Spark on YARN的两种模式:clientcluster。在配置的候,是否需要特别指定?是的,在spark-submit的候,需要设置--deploy-mode参数为cluster或者client,默认是client吗?还是需要显式指定? 总结一下,配置Spark on YARN的主要步骤包括: 1. 安装配置Hadoop YARN。 2. 安装Spark并配置环境变量指向YARN的配置。 3. 调整Spark的配置参数以适应YARN集群的资源管理。 4. 确保依赖项资源文件正确上传访问。 5. 使用spark-submit提交应用,并选择合适的部署模式。 可能还需要验证配置是否正确,比如运行一个简单的Spark应用,比如计算Pi的示例,看看是否能成功在YARN上执行。如果失败,查看日志,比如YARN的Application Master日志,或者Spark的日志,找出错误原因进行调整。 比如,如果出现类找不到的问题,可能需要检查spark.yarn.jars是否正确配置,或者是否将必要的jar包上传到了HDFS。如果资源不足,可能需要调整YARN资源分配参数或者Spark的executor配置。 现在,我应该把这些步骤整理成一个清晰的指南,帮助用户一步步配置Spark on YARN,同提醒常见的配置项可能遇到的问题。</think>### Spark on YARN 配置指南 #### 一、核心概念 Spark on YARN 允许 Spark 应用程序利用 YARN(Hadoop 资源管理器)进行资源调度,无需独立部署 Spark 集群。其优势包括: - **资源共享**:其他 Hadoop 任务(如 MapReduce)共享资源。 - **简化运维**:复用 YARN 的监控、容错安全机制。 #### 二、前提条件 1. **Hadoop 环境**:已部署 Hadoop(2.x+)且 YARN 正常运行。 2. **Spark 安装**:下载并解压 Spark(需 Hadoop 版本兼容)。 3. **配置权限**:确保提交任务的用户具有 YARN 队列权限 HDFS 读写权限。 #### 三、关键配置步骤 ##### 1. **配置 Hadoop 环境变量** 在 Spark 的 `conf/spark-env.sh` 中设置 Hadoop 配置路径: ```bash export HADOOP_CONF_DIR=/path/to/hadoop/etc/hadoop # 指向 Hadoop 配置文件目录 export YARN_CONF_DIR=/path/to/hadoop/etc/hadoop # 同 HADOOP_CONF_DIR ``` ##### 2. **修改 Spark 默认配置** 在 `conf/spark-defaults.conf` 中指定 YARN 模式: ```properties spark.master=yarn spark.yarn.jars=hdfs:///spark-jars/*.jar # 将 Spark 依赖上传至 HDFS(可选但推荐) ``` ##### 3. **资源参数调优** 根据集群资源调整参数(示例): ```properties spark.executor.memory=4g # 每个 Executor 内存 spark.executor.cores=2 # 每个 Executor 使用的 CPU 核心 spark.driver.memory=2g # Driver 内存(Cluster 模式下由 YARN 管理) ``` ##### 4. **提交 Spark 应用** 使用 `spark-submit` 提交任务需指定部署模式: ```bash spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode cluster \ # 或 client --executor-memory 2g \ --num-executors 4 \ /path/to/spark-examples.jar ``` #### 四、部署模式对比 | **模式** | **Driver 运行位置** | **适用场景** | |------------|-------------------------------|--------------------------| | **Client** | 提交任务的客户端机器 | 调试(日志直接输出到终端) | | **Cluster**| YARN Application Master(AM) | 生产环境(高可用性) | #### 五、常见问题解决 1. **资源申请失败** - **原因**:YARN 资源不足或参数超限。 - **解决**: - 检查 `yarn.nodemanager.resource.memory-mb` `yarn.scheduler.maximum-allocation-mb`。 - 调低 `spark.executor.memory` 或 `spark.executor.cores`。 2. **依赖缺失** - **现象**:`ClassNotFoundException`。 - **解决**: - 通过 `--jars` 添加额外依赖: ```bash spark-submit --jars /path/to/dependency.jar ... ``` - 或预上传 Spark 依赖到 HDFS: ```bash hdfs dfs -put $SPARK_HOME/jars/*.jar /spark-jars/ ``` 3. **Kerberos 认证问题** - **现象**:任务因权限失败。 - **解决**: - 使用 `kinit` 提前获取凭证: ```bash kinit -kt /path/to/user.keytab user@REALM ``` - 或在 `spark-submit` 中添加参数: ```bash --principal user@REALM --keytab /path/to/user.keytab ``` #### 六、验证配置 运行测试任务(如计算 Pi): ```bash spark-submit \ --master yarn \ --deploy-mode client \ $SPARK_HOME/examples/jars/spark-examples.jar 100 ``` 观察 YARN Web UI(默认 `http://<ResourceManager>:8088`)确认任务状态。 #### 七、高级配置(可选) - **动态资源分配**: 在 `spark-defaults.conf` 中启用: ```properties spark.dynamicAllocation.enabled=true spark.shuffle.service.enabled=true ``` - **日志聚合**: 确保 YARN 的 `yarn.log-aggregation-enable` 设为 `true`,通过 `yarn logs -applicationId <appId>` 查看日志。 通过以上步骤,您应能完成 Spark on YARN 的基础配置调优。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值