mapreduce

Hadoop MapReduce任务执行与调度详解
本文深入解析了Hadoop MapReduce的工作流程,包括job提交、任务调度、MapTask与ReduceTask的执行。重点介绍了setNumReduces设置、任务提交、maptask运行过程中的数据处理(如分区、排序、合并)以及shuffle阶段的细节。同时,讨论了如何通过调整参数控制MapTask的并行度。此外,还涉及到了mapper与reducer的join操作策略,以及在不同场景下的应用选择。

job:

  • setNumReduces,设置reduce task数目;
  • waitForCompletion-》submit提交任务
    • connect,链接本地或yarn集群,创建Cluster-》initialize-》创建protocol
    • submitJobInternal-》
      1. 检查job和目录checkSpecs
      2. submitClient.getNewJobID,生成全局唯一ID
      3. writeSplits-》获取逻辑分区写入hdfs,返回maptask个数,存入conf;
      4. writeConf-》生成job.xml,把文件写到hdfs
      5. submitJob-》ApplicationClientProtocol.submitApplication-》通知resource manager,提交任务,发送协议

任务调度:

yarn child:

taskFinal.run执行maptask/reducetask;

mapper:

  1. maptask.run-》如果存在reduce task,设置map、sort占比;
  2. initialize-》初始化outputFormat;
  3. runNewMapper-》
    1. 生成mapper,input format,record reader input,record writer output,input split;
    2. 环形缓冲区初始化,createSortingCollector-》MapOutputCollector-》MapOutputBuffer,默认100M;
    3. output初始化,NewOutputCollector-》如果reduce task数目大于1,生成partitioner;
    4. 封装到mapContext(input,output,split);
    5. 再封装到Mapper.Context,改context就是mapper中使用的context;
  4. input.initialize-》CreateRecordReader,创建LineRecordReader,访问数据源;
  5. mapper.run-》调用我们定义的mapper,Mapper循环读取一行数据,调用Map处理,提取想要的数据,写入到输出流;
    1. setup,做预处理
    2. context.nextKeyValue()-》LineRecordReader.nextKeyValue
    3. map-》context.write-》WrappedMapper.write-》NewOutputCollector-》write-》获取Partitioner(分区规则),对k,v数据打上分区标记
    4. 默认HashPartitioner,(key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;
    5. MapOutputBuffer.Collect,写入环形缓冲区
  6. spillThread负责对环形缓冲区溢出处理-》buffer达到一定阈值,sortAndSpill()-》
    1. 对buffer中数据,进行排序;(排序规则Sorter
    2. 遍历分区,查看是否有Combiner,有的话,进行局部聚合,否则略过;
    3. 写入OutputConverter-》combineCollector-》写入文件;
    4. spill文件里面会有多个分区数据;
  7. close-》MapOutputBuffer.flush-》MergeParts,按照分区对spill file的合并;
  8. 生成一个数据文件和一个索引文件;
  9. SpillRecord管理多个IndexRecord(一个分区信息),然后写入索引文件;

shuffle:

包含三大组件,partitioner,sorter,combiner(默认该combiner就是reduce最终聚合的逻辑)

MapTask并行度:

FileInputFormat-》getSplits-》

  1. 获取,List<InputSplit>,逻辑切片集合,FileSplit为具体实现;
  2. "mapreduce.input.fileinputformat.split.minsize"如果没配置,则默认1;
  3. 遍历job要处理的file,如果文件可以切分
  4. 根据block size,上面的配置,最大分割值(若没配置"mapreduce.input.fileinputformat.split.maxsize"就是long最大值);
  5. computeSplitSize,用这三个值计算切片大小,取三者中间值;通过调整最小值,最大值,来决定分片大小;
  6. 循环切片,如果剩余文件大小/splitSize > 1.1,那么一直循环,存入list;

元数据:

  private Path file;
  private long start;
  private long length;
  private String[] hosts;

reducer:

  1. reduce task个数大于等于partitions个数;
  2. reduce,拿到相同组的数据,分组规则GroupComparator
  3. shuffleConsumerPlugin拉取数据,数据管理有两个类InMemoryMapOutput,OnDiskMapOutput;
  4. 内存达到阈值,spill,写入磁盘;
  5. finalMerge-》Merger.merge,Merger.writeFile,合并成一个文件;
  6. reducer.run-》从文件不断读取数据,reduce

mapper与reducer的join:

大小表的情况可以再mapper做;

否则只能再reducer做;

内容概要:本文提出了一种基于融合鱼鹰算法和柯西变异的改进麻雀优化算法(OCSSA),用于优化变分模态分解(VMD)的参数,进而结合卷积神经网络(CNN)与双向长短期记忆网络(BiLSTM)构建OCSSA-VMD-CNN-BILSTM模型,实现对轴承故障的高【轴承故障诊断】基于融合鱼鹰和柯西变异的麻雀优化算法OCSSA-VMD-CNN-BILSTM轴承诊断研究【西储大学数据】(Matlab代码实现)精度诊断。研究采用西储大学公开的轴承故障数据集进行实验验证,通过优化VMD的模态数和惩罚因子,有效提升了信号分解的准确性与稳定性,随后利用CNN提取故障特征,BiLSTM捕捉时间序列的深层依赖关系,最终实现故障类型的智能识别。该方法在提升故障诊断精度与鲁棒性方面表现出优越性能。; 适合人群:具备一定信号处理、机器学习基础,从事机械故障诊断、智能运维、工业大数据分析等相关领域的研究生、科研人员及工程技术人员。; 使用场景及目标:①解决传统VMD参数依赖人工经验选取的问题,实现参数自适应优化;②提升复杂工况下滚动轴承早期故障的识别准确率;③为智能制造与预测性维护提供可靠的技术支持。; 阅读建议:建议读者结合Matlab代码实现过程,深入理解OCSSA优化机制、VMD信号分解流程以及CNN-BiLSTM网络架构的设计逻辑,重点关注参数优化与故障分类的联动关系,并可通过更换数据集进一步验证模型泛化能力。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MyObject-C

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值