为什么Spark比MapReduce快

Spark为何比MapReduce快
本文探讨了Spark相较于Hadoop MapReduce速度快的原因,关键在于其先进的DAG程序、内存处理和减少磁盘I/O,以及应用程序级别的任务链接,无需频繁写入磁盘。

前言

边上的哥们问了这样一个问题:
无论什么数据都必须得加载到在内存中计算,为什么Spark就比MapReduce快那么多?

先上一幅Spark官网的图:

在这里插入图片描述
在官网这张图里隐隐约约的看到一个词:DAG

使用最先进的DAG程序——这一句话已经告诉我们速度提高100倍的关键原因(当然后面写的查询优化器和物理执行引擎也是一部分原因),好了,这哥们的问题已经解决了

简要说明

Spark对速度的最大声称是它能够 “在内存中运行程序比Hadoop MapReduce快100倍,在磁盘上运行速度提高10倍。” Spark可以提出这种说法,因为它在工作节点的主存储器中进行处理,并防止对磁盘进行不必要的 I / O操作。
Spark提供的另一个优势是即使在应用程序编程级别也可以链接任务,而无需写入磁盘或最大限度地减少对磁盘的写入次数(说的就是DAG的好处)。

煮个例子描述

val textFile = sc.textFile("README.md") 
val wordCounts = textFile.flatMap(line => line.split(" ")).map(word => 
(word, 1)).reduceByKey((a, b) => a + b) 
wordCounts.collect()

代码在运行中生成的上一个Spark作业的DAG将如下所示:

后记

参考

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SunnyRivers

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值