4-secondarynamenode

本文深入解析了Hadoop文件系统中的Namenode与SecondaryNamenode的工作特点、功能以及操作流程,阐述了Namenode如何在内存中存储元数据并处理读请求,以及SecondaryNamenode如何通过周期性地从Namenode获取元数据并进行合并,以确保系统的高可用性和数据一致性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

Namenode的工作特点

 

Namenode始终在内存中保存metedata,用于处理“读请求”

 

到有“写请求”到来时,namenode会首先写editlog到磁盘,成功返回后,才会修改内存,并且向客户端返回

 

Hadoop会维护一个fsimage文件,也就是namenode中metedata的镜像,但是fsimage不会随时与namenode内存中的metedata保持一致,而是每隔一段时间通过合并editlog来更新内容。Secondary namenode就是用来更新fsimage的。

 

 

 

 

 

secondarynamenode的工作特点

 

1、secondarynamenode不是namenode的备份。实质上,它是namenode的一个快照,会根据configuration中设置的值来决定多少时间周期性的去spap一下namenode,记录namenode中的metadata及其它数据。

 

2、假使namenode损坏或丢失之后,无法启动hadoop这时就要人工去干预恢复到secondarynamenode中所照快照的状态,这就意味着集群的数据会或多或少的丢失和一些宕机时间,并且将secondarynamenode作为重要的namenode来处理,这就要求,尽量不要将secondarynamede和namenode放在同一台机器上。

 

 

 

 

 

secondary namenode的工作流程

 

Secondary namenode的主要工作流程有:1)   通过http定时从namenode 下载元数据(edits fsimage 2) 合并数据包括 edits  fsimages   产生新的元数据 fsimage   。这个fisimage 就是下载元数据checkpiont       3)在本地保存

4Secondary将新的fsimage发回给primary,清空  namenode 上的edits . 5) 定时重复  1),周而复始

 

 

什么时候checkpiont
 

 

fs.checkpoint.period 指定两次checkpoint的最大时间间隔,默认3600秒。

 

fs.checkpoint.size    规定edits文件的最大值,一旦超过这个值则强制checkpoint,不管是否到达最大时间间隔。默认大小是64M



 

这个工作过程与Oracle 数据库的工作过程基本一样。

 

 

-rw-r--r--. 1 root root 515994 Mar 21 10:30 hadoop-root-datanode-bigdatahadoop111.log -rw-r--r--. 1 root root 714 Mar 21 09:38 hadoop-root-datanode-bigdatahadoop111.out -rw-r--r--. 1 root root 714 Mar 21 01:26 hadoop-root-datanode-bigdatahadoop111.out.1 -rw-r--r--. 1 root root 714 Mar 21 00:41 hadoop-root-datanode-bigdatahadoop111.out.2 -rw-r--r--. 1 root root 714 Mar 20 22:59 hadoop-root-datanode-bigdatahadoop111.out.3 -rw-r--r--. 1 root root 714 Mar 20 22:49 hadoop-root-datanode-bigdatahadoop111.out.4 -rw-r--r--. 1 root root 714 Mar 20 10:52 hadoop-root-datanode-bigdatahadoop111.out.5 -rw-r--r--. 1 root root 438175 Mar 21 11:16 hadoop-root-namenode-bigdatahadoop111.log -rw-r--r--. 1 root root 714 Mar 21 09:38 hadoop-root-namenode-bigdatahadoop111.out -rw-r--r--. 1 root root 714 Mar 21 01:26 hadoop-root-namenode-bigdatahadoop111.out.1 -rw-r--r--. 1 root root 714 Mar 21 00:41 hadoop-root-namenode-bigdatahadoop111.out.2 -rw-r--r--. 1 root root 6000 Mar 20 23:07 hadoop-root-namenode-bigdatahadoop111.out.3 -rw-r--r--. 1 root root 714 Mar 20 22:49 hadoop-root-namenode-bigdatahadoop111.out.4 -rw-r--r--. 1 root root 714 Mar 20 10:52 hadoop-root-namenode-bigdatahadoop111.out.5 -rw-r--r--. 1 root root 228425 Mar 21 11:16 hadoop-root-secondarynamenode-bigdatahadoop111.log -rw-r--r--. 1 root root 714 Mar 21 09:38 hadoop-root-secondarynamenode-bigdatahadoop111.out -rw-r--r--. 1 root root 4086 Mar 21 01:50 hadoop-root-secondarynamenode-bigdatahadoop111.out.1 -rw-r--r--. 1 root root 714 Mar 21 00:42 hadoop-root-secondarynamenode-bigdatahadoop111.out.2 -rw-r--r--. 1 root root 714 Mar 20 22:59 hadoop-root-secondarynamenode-bigdatahadoop111.out.3 -rw-r--r--. 1 root root 714 Mar 20 22:49 hadoop-root-secondarynamenode-bigdatahadoop111.out.4 -rw-r--r--. 1 root root 714 Mar 20 10:52 hadoop-root-secondarynamenode-bigdatahadoop111.out.5 -rw-r--r--. 1 root root 169762 Mar 21 11:22 mapred-root-historyserver-bigdatahadoop111.log -rw-r--r--
03-24
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值