Spark和MapReduce的区别

1、Spark的由来

分布式计算的发展过程:

  • HPC:高性能计算

    • 将一堆服务器的硬件放在一起构建计算
  • 云计算:虚拟化技术

  • 分布式计算平台:将CPU、内存、网络、磁盘通过分布式软件实现合并

    ||

    硬件配置越来越高,价格越来越低

  • 演变:不断的让数据价值最大化

  • 第一代计算
    • MapReduce:基于硬盘,适合于廉价的机器,硬件性能要求不高
    • 分钟以上
  • 第二代计算
    • Impala/Presto/Spark:基于内存,对于硬件的要求比较高,主要是内存
    • 分钟以内
  • 第三代计算
    • Flink:基于实时数据流的计算,对于硬件要求CPU、内存、IO都比较高
    • 秒以内

2、Spark的诞生及发展

  • MapReduce太慢了,开发者在考虑有没有什么替代MapReduce实现基于代码的分布式内存计算。

慢的原因:

基于磁盘:Map的输出会写入磁盘,Reduce会从磁盘中读取数据。
Shuffle:只要想聚合必然会经过shuffle,而且会排序、分区、分组。

解决方案:

基于内存,能不见过shuffle就不经过shuffle

  • facebook:就
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值