hadoop各种流程

本文详细介绍了Hadoop的元数据合并流程,包括SNN与Namenode之间的交互,以及HDFS的读写数据流程。在读写数据过程中,详细阐述了客户端与Namenode的交互,数据的分块与传输,以及读取验证。此外,还涵盖了MapReduce的shuffle过程,包括Map端和Reduce端的详细步骤。最后,简述了MapReduce作业在YARN上的提交和执行流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

元数据合并流程
HDFS的读写过程
shuffle过程
job提交流程

元数据合并流程 CheckPoint
edits:日志的元数据
fsImage :镜像的元数据
1)snn会向namenode发送元数据是否合并的检查 1min检查一次
2)namenode需要元数据合并 会向snn进行相应
3)snn向namenode发送元数据合并的 请求
4)namenode将正在编辑的元数据的日志文件进行回滚 变成一个历史日志文件,同时会
生成一个新的正在编辑的日志文件
5)snn将fsimage文件和edits文件拉取到snn的本地
6)snn将上面的文件加载到内存中进行合并 根据edits的操作日志修改fsimage文件
7)合并完成,将合并完成的文件发送给namenode,重命名,生成最新的fsiamge文件 本地也会保存一个

HDFS读写数据流程
写数据
1、 client 发写数据请求
2、 namenode 相应请求,然后做一系列校验,如果能上传该数据,则返回该文件的所有切
块应该被存在哪些 datanode 上的 datanodes 列表
blk-001:hadoop02 hadoop03
blk-002:hadoop03 hadoop04
3、 client 拿到 datanode 列表之后,开始传数据
4、 首先传第一块 blk-001, datanode 列表就是 hadoop02,hadoop03, client 就把 blk-001 传到
hadoop02 和 hadoop03 上
5、 ……… 用传第一个数据块同样的方式传其他的数据块
6、 当所有的数据块都传完之后, client 会给 namenode 返回一个状态信息,表示数据已全
部写入成功,或者是失败的信息
7、 namenode 接收到 client 返回的状态信息来判断当次写入数据的请求是否成功,如果成
功,就需要更新元数据信息
读数据
1、使用 HDFS 提供的客户端 Client,向远程的 nameno

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值