HDFS详解二之副本放置策略

副本放置策略

假设在数据中心的一个机架上面有5个服务器。一般正常的机架放10个,为什么10个,这个是按照机架的电量去算的,每个服务器分配多少安培的电流,一个机柜的电流安培数是有标准的,一个机柜的电流大小除以一个服务器的电流大小,算一个估算值。】

正常情况下,就是三个副本。副本不是越多越好,越多,需要的存储空间就大了,而且写的越慢。

第一个副本:

放置在上传的DN节点上,比如现在用client客户端上传的文件提交到HDFS上面,上传的那台机器正好是DataNode节点,会优先在自己所在的节点上上传一个副本,这样就不需要通过网络IO通过网线去传输数据包,这样会节省时间。

如果是集群外提交,则随机挑选一台磁盘不太慢、CPU不太忙的节点上。(老大NN是知道哪些节点是空闲的,会返回地址列表让你去上传)。

第二个副本:

放置在与第一个副本不同的机架的节点上。

第三个副本:

放置在与第二个副本相同机架的不同节点上。

假如还有更多的副本,就随机放,随机放在节点上。

生产上 尽量将上传数的动作,读写的动作 选取DataNode节点上。优先自己,这样减少网络带宽消耗,减少时间。

面试题:
集群上有DataNode 3个,其中一个DataNode挂了,那么一个文件有三个副本,
那么我现在能够正确读取文件内容吗?

待补充........

(网上:第一不会给储存带来影响,因为有其他的副本保存着,不过建议尽快修复,第二会影响运算的效率,机器少了,reduce在保存数据时选择就少了,一个数据的块就大了所以就会慢。)


其中DataNode挂了其实就是block Miss,那么怎样去修复?

1.手动修复
参考:https://blog.youkuaiyun.com/high2011/article/details/72461376

hdfs |grep debug

hdfs debug
Usage: hdfs debug <command> [arguments]

verify [-meta <metadata-file>] [-block <block-file>]
recoverLease [-path <path>] [-retries <num-retries>]

2.自动修复
参考:https://www.cnblogs.com/prayer21/p/4819789.html

### HDFS 详解:分布式文件系统架构与原理 #### HDFS概述 HDFS(Hadoop Distributed File System)是一种专为大数据存储和处理而设计的分布式文件系统[^2]。它是Hadoop生态系统的核心组件之一,旨在解决海量数据的可靠存储和高效访问问题。 #### HDFS的设计目标 HDFS的主要设计目标包括但不限于以下几个方面: - **大文件存储**:适合存储TB甚至PB级别的超大规模文件。 - **高吞吐量**:通过批量读写操作减少网络传输开销,提升数据访问效率[^4]。 - **容错能力**:即使部分节点发生故障,也能保证系统的正常运行。 - **可扩展性**:可以通过增加硬件资源轻松扩展存储容量和性能。 #### HDFS基本架构 HDFS采用主从结构(Master-Slave Architecture),主要由以下三个核心组件构成: 1. **NameNode** NameNode是HDFS集群的大脑,负责管理整个文件系统的命名空间和元数据信息。它记录了每个文件被分割成哪些数据块(Block),以及这些数据块分布在哪个DataNode上[^3]。此外,NameNode还接收客户端请求并协调执行各种文件操作。 2. **DataNode** DataNode是实际存储数据的工作节点,在物理磁盘上保存文件的内容片段即数据块。当启动时,它们向NameNode汇报当前持有的所有块列表;之后定期发送心跳信号以维持联系状态同时更新可用空间等动态参数[^3]。 3. **Secondary NameNode** 虽然名字里带“name”,但它并非真正的名称服务器替代品而是辅助角色——主要用于周期性合并fsimage(镜像文件)与edits log日志从而减轻primary namenode负担防止内存溢出风险但不参与实时业务流程因此严格意义上不属于HA(high availability)范畴内的备用方案[^未提及]. #### 工作原理 以下是HDFS的关键工作机制描述: - **文件写入过程**: 客户端发起上传请求给namenode,后者分配block id并将该id告知相应datanodes形成pipeline链路以便后续streaming-style write;期间每完成一个chunk size大小的数据传递后立即同步副本至其他指定位置直到达到预设replication factor为止. - **文件读取过程**: 用户定位所需resource path提交query到nn获取target blocks location info随后直接连接dn拉取content而非经由中间层转发以此降低latency提高efficiency. - **数据复制机制**: 默认情况下一份data会被copy三次分别放置于不同machine之上确保即便遭遇single point failure仍能恢复original content without loss.[^not specific] - **故障检测与恢复**: dn定时上报health status report to nn so that it can promptly detect any abnormal situation like node offline or disk corruption etc., then trigger corresponding recovery actions such as re-replicating lost chunks elsewhere within cluster boundaries accordingly.[^also not clear here] #### 性能优化特点 除了基础功能外,hdfs还有诸多针对特定场景做了专门调优的地方比如: - 支持rack awareness configuration which helps balance load across multiple racks thereby reducing inter-rack traffic costs significantly while enhancing fault tolerance at the same time.[^no exact source provided yet] - Implementing short-circuit reads when possible allows bypassing normal network channels between client and remote datanodes thus achieving faster local access speeds under certain conditions where both parties reside on identical physical hosts/machines.[^again no direct citation available currently] ```python # 示例代码展示如何简单交互hdfs api from hdfs import InsecureClient client = InsecureClient('http://localhost:9870', user='hadoop') with client.write('/example.txt') as writer: writer.write(b'Hello World\n') result = client.read('/example.txt').decode() print(result) ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值