Hadoop、Spark运行原理

博客介绍了Hadoop和Spark的运行原理并进行对比。Hadoop由HDFS、MapReduce和YARN组成;Spark主要由sparkcontext、cluster manager和executor构成,其中cluster manager负责集群资源管理,executor是应用执行主要进程。还给出了相关参考链接。

Hadoop、Spark运行原理

hadoop 运行原理

Hadoop的主要组成模块包括以下三个部分:

  1. Hadoop Distributed File System(HDFS):分布式文件存储系统。
  2. MapReduce:并行计算框架(可以自定义计算逻辑的部分)
  3. Yet Another Resource Negotiator(YARN):另一种资源协调者
    https://blog.youkuaiyun.com/sky_flying1/article/details/78014723

Spark运行原理

主要由sparkcontext(spark上下文)、cluster manager(资源管理器)和▪executor(单个节点的执行进程)。其中cluster manager负责整个集群的统一资源管理。executor是应用执行的主要进程,内部含有多个task线程以及内存空间。

https://www.jianshu.com/p/cedbebfeea8c
https://dongkelun.com/2018/06/09/sparkArchitecturePrinciples/

对比

https://zhuanlan.zhihu.com/p/34436165

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值