Hadoop是怎么分块的

参考网站:http://blog.youkuaiyun.com/wh62592855/article/details/7227198?reload


可以结合之前转过的一篇文章一起看

http://blog.youkuaiyun.com/wh62592855/article/details/6583364

########################################################

hadoop的分块有两部分,其中第一部分更为人熟知一点。

 
第一部分就是数据的划分(即把File划分成Block),这个是物理上真真实实的进行了划分,数据文件上传到HDFS里的时候,需要划分成一块一块,每块的大小由hadoop-default.xml里配置选项进行划分。
 
<property>
  <name>dfs.block.size</name>
  <value>67108864</value>
  <description>The default block size for new files.</description>
</property>
 
这个就是默认的每个块64MB。
数据划分的时候有冗余,个数是由
<property>
  <name>dfs.replication</name>
  <value>3</value>
  <description>Default block replication. 
  The actual number of replications can be specified when the file is created.
  The default is used if replication is not specified in create time.
  </description>
</property>
指定的。
 
具体的物理划分步骤要看Namenode,这里要说的是更有意思的hadoop中的第二种划分。
 
在hadoop中第二种划分是由InputFormat这个接口来定义的,其中有个getSplits方法。这里就有了一个新的不为人熟知的概念:Split。Split的作用是什么,Split和Block是什么关系,下面就可以说明清楚。
在Hadoop0.1中,split划分是在JobTracker端完成的,发生在JobInitThread对JobInProgress调用inittasks()的时候;而在0.18.3中是由JobClient完成的,JobClient划分好后,把split.file写入hdfs里,到时候jobtracker端只需要读这个文件,就知道Split是怎么划分的了。
第二种划分只是一种逻辑上划分,目的是为了让Map Task更好的获取数据输入,仔细分析如下这个场景:
 
File 1 : Block11, Block 12, Block 13, Block 14, Block 15
File 2 : Block21, Block 22, Block 23
 
File1有5个Block,最后一个Block当然可能小于64MB;File2有3个Block
 
如果用户在程序中指定map tasks的个数,比如说是2(如果不指定的话maptasks个数默认是1),那么在
FileInputFormat(最常见的InputFormat实现)的getSplits方法中,首先会计算totalSize=8(可以对照源码看看,注意getSplits这个函数里的计量单位是Block个数,而不是Byte个数,后面有个变量叫bytesremaining仍然表示剩余的Block个数,有些变量名让人无语),然后会计算goalSize=totalSize/numSplits=4,对于File1,计算一个Split有多少个Block是这样计算的
 
long splitSize = computeSplitSize(goalSize, minSize, blockSize);
protected long computeSplitSize(long goalSize, long minSize, long blockSize) {
 return Math.max(minSize, Math.min(goalSize, blockSize));
}
这里minSize是1(说明了一个Split至少包含一个Block,不会出现一个Split包含零点几个Block的情况),计算得出splitSize=4,所以接下来Split划分是这样分的:
Split 1: Block11, Block12, Block13,Block14
Split 2: Block15
Split 3: Block21, Block22, Block23
那用户指定的map个数是2,出现了三个split怎么办?在JobInProgress里其实maptasks的个数是根据Splits的长度来指定的,所以用户指定的map个数只是个参考。可以参看JobInProgress: initTasks()
里的代码:
 
  try {
   splits = JobClient.readSplitFile(splitFile);
  } finally {
   splitFile.close();
  }
  numMapTasks = splits.length;
  maps = new TaskInProgress[numMapTasks];
 
所以问题就很清晰了,还如果用户指定了20个map作业,那么最后会有8个Split(每个Split一个Block),所以最后实际上就有8个MapTasks,也就是说maptask的个数是由splits的长度决定的。
 
几个简单的结论:
1. 一个split不会包含零点几或者几点几个Block,一定是包含大于等于1个整数个Block
2. 一个split不会包含两个File的Block,不会跨越File边界
3. split和Block的关系是一对多的关系
4. maptasks的个数最终决定于splits的长度
 
 
 
还有一点需要说明,在FileSplit类中,有一项是private String[] hosts;
看上去是说明这个FileSplit是放在哪些机器上的,实际上hosts里只是存储了一个Block的冗余机器列表。
比如上面例子中的Split 1: Block11, Block12, Block13,Block14,这个FileSplit中的hosts里最终存储的是Block11本身和其冗余所在的机器列表,也就是说Block12,Block13,Block14存在哪些机器上没有在FileSplit中记录。
 
FileSplit中的这个属性有利于调度作业时候的数据本地性问题。如果一个tasktracker前来索取task,jobtracker就会找个task给他,找到一个maptask,得先看这个task的输入的FileSplit里hosts是否包含tasktracker所在机器,也就是判断和该tasktracker同时存在一个机器上的datanode是否拥有FileSplit中某个Block的备份。
 
但总之,只能牵就一个Block,其他Block就从网络上传罢。
<think>嗯,用户想了解Hadoop的基本概念,特别是Hadoop是什么以及它是如何工作的。首先,我需要回忆Hadoop的核心组件和架构。记得Hadoop是一个分布式计算框架,主要用于处理大数据。它的核心包括HDFS和MapReduce,对吧? HDFS是分布式文件系统,负责存储数据,而MapReduce处理数据。用户可能不太清楚这两个部分如何协同工作。需要解释清楚NameNode和DataNode的作用,NameNode管理元数据,DataNode存储实际数据块。Secondary NameNode的作用可能也需要提到,它不是备份,而是帮助NameNode进行元数据合并。 然后,MapReduce部分,JobTracker和TaskTracker的功能。用户可能对Map和Reduce阶段的具体流程不太了解,需要分步骤说明。比如,输入数据被分割成块,Map任务处理,Shuffle阶段排序,最后Reduce任务汇总结果。 用户提供的引用材料中提到Hadoop起源于Nutch项目,受Google的MapReduce论文影响。需要结合这些信息,说明Hadoop的历史背景,这样用户能更好地理解它的设计初衷。 还要注意回答的结构,先定义Hadoop,再分点讲解核心组件和工作原理,最后应用场景。需要确保使用正确的中文术语,避免技术术语过于晦涩,同时保持准确。可能用户对分布式计算不太熟悉,所以需要用简单易懂的语言解释。 检查是否有遗漏的部分,比如Hadoop的优化或生态系统组件,但根据问题,基本概念和工作原理是重点。是否需要提到YARN?可能用户的问题集中在传统架构,即Hadoop 1.x,而YARN属于Hadoop 2.x的资源管理,但原引用中的集群组成包括JobTracker和TaskTracker,属于较旧版本,所以可能不需要深入YARN。 最后,生成的相关问题要围绕用户可能感兴趣的后续内容,比如与MapReduce的区别、Hadoop的优缺点、实际应用案例等,帮助用户扩展知识面。确保引用标记正确,参考提供的引用[1]和[2]适当插入。</think>### Hadoop基本概念解析 #### 一、Hadoop是什么? Hadoop是一个开源的**分布式计算框架**,专门用于处理大规模数据集(通常从TB到PB级别)。其核心设计理念是**横向扩展**,通过廉价的普通服务器集群实现高可靠性和高吞吐量计算。Hadoop起源于Apache Nutch项目,受Google发布的MapReduce论文启发[^2],现已成为大数据领域的基石技术。 #### 二、Hadoop核心架构 Hadoop集群主要由以下组件构成: 1. **HDFS(Hadoop Distributed File System)** - **NameNode**:元数据管理者,记录文件与数据块的映射关系 - **DataNode**:实际存储数据块的节点 - **Secondary NameNode**:辅助合并元数据(注意:不是热备节点) 2. **MapReduce计算框架** - **JobTracker**:任务调度与资源分配中心 - **TaskTracker**:执行具体计算任务的节点 工作流程示例: ```text 输入文件 → HDFS分块存储 → Map阶段(并行处理)→ Shuffle阶段(数据排序)→ Reduce阶段(结果汇总)→ 输出 ``` #### 三、关键技术特性 1. **容错机制**:自动复制数据块(默认3副本),故障节点任务自动转移 2. **数据本地化**:计算任务优先调度到存储相关数据的节点 3. **批处理模式**:适合离线大数据处理,如日志分析、数据挖掘等 #### 四、典型应用场景 - 电商用户行为分析(如推荐系统) - 金融风控模型训练 - 电信网络日志处理 - 基因组学数据处理
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值