个人总结了三点,如下:
- 数据处理形式不同:Spark的数据转换都是基于内存的,而MR都是处理一次刷到磁盘一次
- 代码书写的不同:Spark提供了非常丰富的算子,书写起来非常爽,而MR的书写就有点让人头痛
- 容错性不同:Spark的容错比MR更加高,因为Spark算子有血缘关系
本文从数据处理形式、代码书写及容错性三个方面对比了Spark与MapReduce(简称MR)。Spark基于内存进行数据转换,提供丰富的算子简化代码书写,并具备更高的容错能力。
个人总结了三点,如下:
4799
722
1210
4870

被折叠的 条评论
为什么被折叠?