HDFS详解

本文详细介绍了Hadoop分布式文件系统(HDFS)的架构组成,包括NameNode、SecondaryNameNode及DataNode的角色与职责,同时深入探讨了HDFS的特点、短板及文件块的管理策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hadoop1.0的HDFS && hadoop2.0伪分布式下的HDFS:

	结构:一个HDFS集群是由一个NameNode、一个Secondary NameNode和若干个DataNode组成。
	
		1)NameNode:

			概念:NameNode是HDFS主从结构中主角色的扮演者,它维护着整个文件系统的目录树,维护信息(即HDFS的元数据)存储在本地的fsimage文件和edits文件中。
			
				fsimage:文件系统镜像文件,内存中的HDFS元数据序列化到磁盘上的文件,即HDFS元数据的快照,NameNode启动的时候,默认会加载最新的fsimage。
				edits:	fsimage的编辑日志。
				fstime:最近一次checkpoint的时间。
				
			特点:
				1)NameNode始终在内存中保存metadata,用于处理“读”请求。
				2)NameNode收到“写”请求后,会首先向edits文件中添加日志,成功添加日志后,才会去修改内存中的元数据,并且向客户端返回。

		2)Secondary NameNode:

			概念:用于定期合并文件系统镜像和它的编辑日志。
			
			说明:NameNode将改动的内容写到edits中,Secondary NameNode将定期地合并fsimage和edits。
			
			执行过程:
				1)通知NameNode切换edits文件。
				2)从NameNode上下载fsimage文件和edits文件。
				3)把二者合并(先将fsimage加载到内存,然后合并edits),生成新的fsimage文件,并保存在本地。
				4)将新生成的fsimage文件推送给NameNode,NameNode会用最新的fsimage文件替换掉旧的fsimage文件
				
			默认触发合并的时机:每小时合并一次 或 edits文件达到64MB时进行合并

		3)DataNode:
		
			概念:DataNode是HDFS主从结构中从角色的扮演者,它在本地文件系统存储文件块数据,并在NameNode的调度下进行数据块的创建、删除和复制工作。
	
	
	特点:
	
		1)适合存储超大文件。
		2)运行于廉价的硬件之上。
		3)流式数据访问:HDFS认为,一次写入,多次读取是最高效的访问模式。

		
	短板:
	
		1)实时的数据访问弱:由于HDFS针对高数据吞吐量做了优化,故牺牲了读取数据的速度,对于响应时间是秒或毫秒的数据访问,可以使用HBase。
		2)会占用大量内存:当hadoop启动时,NameNode会将所有的元数据读到内存中,以此来构建目录树。
		3)HDFS中的文件只能有一个写入者,并且只能在文件末尾添加数据。
		
		
	相关概念:
		
		1)文件块:
			1>说明:HDFS中的文件块默认大小:hadoop1.0为64MB;hadoop2.0为128MB,可以通过hdfs-site.xml文件的dfs.block.size属性配置。	
			2>优点:
				1)可以储存比磁盘大的文件:通过把文件分成若干分片实现。
				2)实现了元数据和数据的分开储存和管理。
				3)容错性高。
			3>文件块放置的策略:
				一个文件块默认会有3份备份,一份放在NameNode指定的DataNode上,另一份放在与指定的DataNode不在同一台机器上的DataNode上,最后一份放在与指定的DataNode在同一机架(Rack)上的DataNode上。
				优点:解决了同一机架中失败的情况以及不同机架之间的数据拷贝会带来的性能问题。
	
	
		

### HDFS 详解:分布式文件系统架构与原理 #### HDFS概述 HDFSHadoop Distributed File System)是一种专为大数据存储和处理而设计的分布式文件系统[^2]。它是Hadoop生态系统的核心组件之一,旨在解决海量数据的可靠存储和高效访问问题。 #### HDFS的设计目标 HDFS的主要设计目标包括但不限于以下几个方面: - **大文件存储**:适合存储TB甚至PB级别的超大规模文件。 - **高吞吐量**:通过批量读写操作减少网络传输开销,提升数据访问效率[^4]。 - **容错能力**:即使部分节点发生故障,也能保证系统的正常运行。 - **可扩展性**:可以通过增加硬件资源轻松扩展存储容量和性能。 #### HDFS基本架构 HDFS采用主从结构(Master-Slave Architecture),主要由以下三个核心组件构成: 1. **NameNode** NameNodeHDFS集群的大脑,负责管理整个文件系统的命名空间和元数据信息。它记录了每个文件被分割成哪些数据块(Block),以及这些数据块分布在哪个DataNode上[^3]。此外,NameNode还接收客户端请求并协调执行各种文件操作。 2. **DataNode** DataNode是实际存储数据的工作节点,在物理磁盘上保存文件的内容片段即数据块。当启动时,它们向NameNode汇报当前持有的所有块列表;之后定期发送心跳信号以维持联系状态同时更新可用空间等动态参数[^3]。 3. **Secondary NameNode** 虽然名字里带“name”,但它并非真正的名称服务器替代品而是辅助角色——主要用于周期性合并fsimage(镜像文件)与edits log日志从而减轻primary namenode负担防止内存溢出风险但不参与实时业务流程因此严格意义上不属于HA(high availability)范畴内的备用方案[^未提及]. #### 工作原理 以下是HDFS的关键工作机制描述: - **文件写入过程**: 客户端发起上传请求给namenode,后者分配block id并将该id告知相应datanodes形成pipeline链路以便后续streaming-style write;期间每完成一个chunk size大小的数据传递后立即同步副本至其他指定位置直到达到预设replication factor为止. - **文件读取过程**: 用户定位所需resource path提交query到nn获取target blocks location info随后直接连接dn拉取content而非经由中间层转发以此降低latency提高efficiency. - **数据复制机制**: 默认情况下一份data会被copy三次分别放置于不同machine之上确保即便遭遇single point failure仍能恢复original content without loss.[^not specific] - **故障检测与恢复**: dn定时上报health status report to nn so that it can promptly detect any abnormal situation like node offline or disk corruption etc., then trigger corresponding recovery actions such as re-replicating lost chunks elsewhere within cluster boundaries accordingly.[^also not clear here] #### 性能优化特点 除了基础功能外,hdfs还有诸多针对特定场景做了专门调优的地方比如: - 支持rack awareness configuration which helps balance load across multiple racks thereby reducing inter-rack traffic costs significantly while enhancing fault tolerance at the same time.[^no exact source provided yet] - Implementing short-circuit reads when possible allows bypassing normal network channels between client and remote datanodes thus achieving faster local access speeds under certain conditions where both parties reside on identical physical hosts/machines.[^again no direct citation available currently] ```python # 示例代码展示如何简单交互hdfs api from hdfs import InsecureClient client = InsecureClient('http://localhost:9870', user='hadoop') with client.write('/example.txt') as writer: writer.write(b'Hello World\n') result = client.read('/example.txt').decode() print(result) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值