HDFS QJM原理分析

本文深入分析HDFS的Quorum Journal Manager(QJM)原理,探讨基于Quorum的管理方法,重点讲解Fencing Writers机制防止脏数据写入,以及异常/失败情况下的数据恢复流程,帮助理解HDFS的高可用性设计。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言


最近在重新研读HDFS QJM的细节实现,所谓“温故而知新”,感觉还是收获不少。之前笔者曾简单地翻译过HDFS QJM的设计文档,感兴趣的同学可以点此链接:HDFS QJM的架构设计。本文笔者打算挑选其中的一些细节要点,进程阐述。

背景


在HDFS QJM出现之前,editlog的一种推荐存储方式是基于NAS网络存储设备。这种方式会带来一些局限性:

  • 对于特定硬件的要求。
  • 部署操作的复杂性。

这么做的一个理由是它可以做到一定的高可用性。但是它的劣势是大于它所带来的好处的,于是社区提出了在软件层面来做这样的事,提出了以下3点基本要求:

  • 没有特定硬件的要求。
  • 软件层Fencing机理的实现。(Fencing的操作在这里是为了防止早些的writer对象进行写操作)。
  • 无单点问题,所有editlog都是完全高可用的。

基于Quorum的管理方法


QJM的全称是Quorum Journal Manager,管理的节点为JournalNode,NameNode往这些JournalNode上读/写editlog信息。在每次的写操作过程中,这些信息会发送到所有的JournalNode节点中,关键的一点是,它并不需要要求所有节点成功的回复信息,只需要多数以上(这里指半数以上)的成功信息即可。这就是Quorum原理的核心所在。

Quorum Journal管理的主执行流程


QuorumJournalManager内部控制editlog的写入步骤如下:

1.停止之前的writer对象。当前写editlog的writer对象在写的时候,必须保证之前的writer对象没有在写editlog信息。
2.恢复上一次未写入完全的editlog信息内容。因为存在一种可能性,早期的writer对象存在写失败的可能性,造成各个JournalNode上写入的editlog的内容长度不同,这里需要做一个数据同步恢复。这点会在下文中具体分析到。
3.开始写入一个新的editlog数据片段。
4.写入editlog信息片段。
5.Finalize(确认)editlog信息成功写入。只要步骤4中的执行结果在多数JournalNode中为成功即可。

下面我们来看其中的2个关键步骤的细节实现。

Fencing Writers


这个步骤的目的,笔者已经阐述过,是为了防止早期的writer对象继续写入editlog信息,造成脏数据的写入。那么问题来了,QJM内部是如何实现这点的呢?答案如下。

每个writer对象变为活跃的时候,QJM为每个writer对象分配一个唯一的epoch数字,这个数字是单调递增的,在QJM的写入过程中,不允许epoch数字小于当前epoch数字的writer对象写入数据。

所以,从上面的内容来看,这里提到了一个重要的变量:epoch数字。我们可以简单理解为“迭代轮次”的概念,比如说第一轮,第二轮,第三轮。。
但是在每次epoch数字的迭代增加中,是有一番讲究的,里面会涉及到协商选择的,细节步骤如下:

a.首先QJM会发送一条请求消息(getJournalState()请求),去获取每个JournalNode上当前的epoch数字值。这个值在JournalNode上被保存在名为lastPromisedEpoch的变量里。
b.QJM收到所有JournalNode返回来的epoch数字后,取出其中的最大值,然后在此值上加1,以此作为新的epoch值。
c.QJM以新的epoch值为内容,向各JournalNode发送newEpoch请求,每个JournalNode收到此请求时,比较自身保存的epoch值(即本地lastPromisedEpoch变量),如果比此值大,则更新本地值。

本地epoch值更新后,会在每次的写操作中被用作其中的一个检测条件,代码如下:

private synchronized void checkRequest(RequestInfo reqInfo) throws IOException {
    // 判断当前请求信息的epoch值是否小于当前的epoch值,如果是则抛出异常
    if (reqInfo.getEpoch() < lastPromisedEpoch.get()) {
      throw new IOException("IPC's epoch " + reqInfo.getEpoch() +
          " is less than the last promised epoch " +
          lastPromisedEpoch.get());
    } else if (reqInfo.getEpoch() > lastPromisedEpoch.get()) {
      // 否则用新的epoch值更新当前epoch值
      updateLastPromisedEpoch(reqInfo.getEpoch());
    }
    ...
}

在这里,我们对照代码再来看看QJM(QuorumJournalManager类)内部新的epoch值的生成过程:

Map<AsyncLogger, NewEpochResponseProto> createNewUniqueEpoch()
      throws IOException {
<think>嗯,用户想要了解HDFS的源码分析。首先,我需要确定用户的具体需求。HDFS是Hadoop分布式文件系统的核心组件,源码分析可能涉及到架构、关键模块、读写流程等方面。用户可能是开发者或者系统管理员,希望深入理解HDFS的内部机制,以便优化或解决问题。 用户可能已经有一定的HDFS使用经验,但缺乏对源码的了解。他们可能想了解如何入手分析源码,或者重点模块在哪里。需要确保回答结构清晰,分步骤引导,同时遵循系统级指令中的格式要求,比如正确使用LaTeX。 首先,我应该介绍HDFS的基本架构,帮助用户建立整体认识。然后分模块讲解,比如NameNode、DataNode、客户端通信等。每个部分需要说明源码的位置和关键类,例如NameNode的启动流程涉及的类。 接下来,可能需要详细说明读写流程,包括源码中的关键方法,如create()和read()。这部分要结合具体的包和类,帮助用户定位代码位置。另外,元数据管理和持久化也是重点,比如FsImage和EditLog的处理。 通信机制部分,RPC和流式接口是HDFS的核心,需要提到相关的接口和实现类,如ClientProtocol和DataTransferProtocol。故障恢复与高可用部分,可以介绍主从切换和日志恢复机制,比如ZKFC和EditLogTailer。 最后,提供一些源码分析的建议,比如调试环境搭建和关键断点设置。还要注意提醒用户参考官方文档和社区资源,确保信息的准确性。 需要检查LaTeX格式是否正确,所有行内公式用$...$,独立公式用$$...$$,但根据内容来看,可能数学公式较少,但如果有示例的话需要正确应用。同时保持语言口语化,避免使用Markdown格式,分步骤和模块时用序号和标题清晰标明。</think>以下是对HDFS源码分析的层次化解析,结合架构设计与关键模块实现原理: #### 一、HDFS架构核心 1. **模块划分** - `NameNode`:元数据管理(`FSDirectory`类记录目录树,`INode`描述文件/目录元数据) - `DataNode`:数据块存储(`BlockScanner`实现周期性校验) - `JournalNode`:高可用日志同步(基于Paxos算法) - 通信协议:RPC接口(`ClientProtocol`)与流式接口(`DataTransferProtocol`) 2. **源码目录结构** - 主入口:`hadoop-hdfs-project/hadoop-hdfs/src/main/java/org/apache/hadoop/hdfs` - 关键子包: - `server/namenode`:NameNode核心逻辑 - `server/datanode`:DataNode实现 - `protocol`:RPC协议定义 - `client`:HDFS客户端 #### 二、关键流程源码分析 1. **写文件流程**(`DFSOutputStream`类) ```java // 创建数据流管道 List<DatanodeInfo> targets = namenode.addBlock(...); // 数据分包传输 packet.writeTo(streamer); // 应答确认 waitForAckedSeqno(seqno); ``` 2. **读文件流程**(`DFSInputStream`类) - 通过`getBlockLocations()`获取块位置 - 采用短路读优化(`ShortCircuitLocalRead`) 3. **元数据持久化** - `FsImage`序列化格式:使用Protobuf(`NSection$NameSystemSection`) - EditLog合并:`Checkpointer`线程定期执行 #### 三、高可用实现 1. **主从切换机制** - `ZKFC`通过ZooKeeper监控健康状态 - 脑裂防护:`QJM`基于quorum journal实现 2. **日志同步流程** ```java // JournalNode处理日志写入 public void journal(RequestInfo reqInfo, long segmentTxId...) throws IOException { validateRequest(reqInfo); log.write(op); } ``` #### 四、性能优化点 1. **内存管理** - NameNode堆外内存:`OffHeapINodeMap`减少GC压力 - 块报告合并:`BPServiceActor`实现增量报告 2. **网络优化** - 零拷贝传输:`transferTo()`实现DMA直接内存访问 - 管道化写入:`Packet`队列异步发送 #### 五、调试建议 1. 搭建源码环境: ```shell mvn install -DskipTests -Pdist,native ``` 2. 关键断点设置: - NameNode启动:`NameNode.loadNamesystem()` - 块分配:`BlockManager.addBlock()` 建议配合官方JIRA(HDFS-XXX编号问题)和《Hadoop技术内幕》系列书籍进行扩展研究,重点关注HDFS-3.x版本引入的EC纠删码和Router-Based Federation实现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值