MapReduce笔记

split分片

HDFS中的DataNode以block模块形式保存输入文件
hadoop 1.x默认block大小为64M
hadoop 2.x默认block大小为128M
block大小参数设置在hdfs-site.xml中:dfs.block.size

DataNode的split过程,将文件分块;
如上图分为5个map任务。
NameNode内存有限,大量小文件会带来性能问题,故HDFS适合放大文件,小文件可以压缩、合并,例如设置文件输入类型为CombineFileInputFormat格式。
增加map个数可增大参数mapred.map.tasks
较少map个数可增大参数mapred.min.split.size

Combine

在Map端输出后会进行网络混洗,Shuffle后进入Reduce,大数据量会大量网络开销。故可在本地先按照key先一轮排序合并,即Combine。
Combine原理即是本地状态的Reduce操作,之后再各个Node的数据合并排序。

Reduce

Reduce的任务数可以通过调节参数mapred.reduce.tasks;
代码中调用job.setNumReduceTasks(int n)方法设置。

Hadoop的分布式缓存

在执行MapReduce时,可能Mapper之间需要共享一些信息,如果信息量不大,可从HDFS加载到内存中。

在main方法中加载共享文件的HDFS路径

String cache="hdfs://node001:9000/cache/file"; //目录或者文件
cache=cache+"#myfile";//myfile是文件的别名
job.addCacheFile(new Path(cache).toUri(),conf);//添加到job设置

protected void setup(Context context)throws IOException,InterrupetedException{
FileReader reader =new FileReader("myfile");
BufferedReader br =new BufferedReader(reader);
...
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值