maptask通过inputFormat的读取文件,默认读取文件时TextInputFormat,
读文件用的是成员变量RecordReader的 read()方法,read方法读取原始的文件,
一次读一行,返回k v 将结果交给自定义的Mapper{},调用map方法,进行处理,
用context.write方法输出,交给outPutCollector写到环形缓冲区默认大小100M,
默认数据存储为80%开始对数据处理,对key进行分区默认掉用HashPartitioner(用的是hasecode%reduce的数量),
排序使用key.compareto,使用的是快排算法,环形缓冲区通过spiller将数据溢出到若干个文件,可以通过Combiner可以对数据进行处理
当数据处理完毕以后,merge成一个maptask的最终结果文件(使用归并算法),
分区的数量决定reduce的数量partition0,partition1。多个将maptask形成为分区文件,通过不同的区区分,下载到reducetask的
本地磁盘工作目录,归并排序合并成一个文件,默认调用字符串相同的方法,
将key为相同的分为组,调用reduce(k,values)方法,k的值为分区表第一条数据的key,对数据进行处理,
调用context.write进行输出,调用outPutFormat方法,默认TextOutputFormat, 调用成员RecordWriter的write方法
将结果写出去,默认为 part-r-000000l
本文详细介绍了MapReduce的工作流程,从InputFormat如何读取文件到MapTask处理数据的过程,再到ReduceTask如何合并处理后的数据。涉及的关键步骤包括分区、排序、溢写及最终结果的输出。
733

被折叠的 条评论
为什么被折叠?



