numSplits源码分析

本文详细解析了Hadoop MapReduce作业如何根据输入文件大小和预设的Map任务数,智能地将大文件拆分为多个小任务进行并行处理,以提高数据处理效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

/** Splits files returned by {@link #listStatus(JobConf)} when
   * they're too big.*/ 
//numSplits:来自job.getNumMapTasks(),即在job启动时用org.apache.hadoop.mapred.JobConf.setNumMapTasks(int n)设置的值,给M-R框架的Map数量的提示
  public InputSplit[] getSplits(JobConf job, int numSplits)
    throws IOException {
      //一个简化的秒表实现,可以在纳秒内测量时间
    StopWatch sw = new StopWatch().start();
      //返回FileStatus对象数组-->getInputPaths获得输入目录列表
    FileStatus[] files = listStatus(job);
    
    // Save the number of input files for metrics/loadgen
    job.setLong(NUM_INPUT_FILES, files.length);
    long totalSize = 0;                           // compute total size
    for (FileStatus file: files) {                // check we have valid files
      if (file.isDirectory()) {
        throw new IOException("Not a file: "+ file.getPath());
      }
      //totalSize:是整个Map-Reduce job所有输入的总大小
      totalSize += file.getLen();
    }

    //goalSize为“InputFile大小”/“我们在配置文件中定义的mapred.map.tasks”值
      //如果不给默认初始化0
    long goalSize = totalSize / (numSplits == 0 ? 1 : numSplits); 
    //minSize:取的1和mapred.min.split.size中较大的一个。(getLong()方法,如果不设置 为null 返回defaultValue 1,如果设置后,返回设置数值对应的16进制(Long))
    long minSize = Math.max(job.getLong(org.apache.hadoop.mapreduce.lib.input.
      FileInputFormat.SPLIT_MINSIZE, 1), minSplitSize);

    // generate splits
    ArrayList<FileSplit> splits = new ArrayList<FileSplit>(numSplits);
    //这个类带有网络拓扑信息
    NetworkTopology clusterMap = new NetworkTopology();
    for (FileStatus file: files) {
      Path path = file.getPath();
      //得到文件的长度
      long length = file.getLen();
      if (length != 0) {//如果不为0
        //返回拥有此路径的文件系统
        FileSystem fs = path.getFileSystem(job);
        //该数组含有块的网络位置、主机信息包含块副本和其他块元数据(例如文件)与块、长度、是否损坏等相关的偏移量)
        BlockLocation[] blkLocations;
        //如果LocatedFileStatus是FileStatus的子类
        if (file instanceof LocatedFileStatus) {
          //类型强转后获得文件的块位置
          blkLocations = ((LocatedFileStatus) file).getBlockLocations();
        } else {
          //不能向下转型   返回一个包含主机名、偏移量和大小的数组
          blkLocations = fs.getFileBlockLocations(file, 0, length);
        }
        //如果可以切片,默认为true
        if (isSplitable(fs, path)) {
          //获取文件的块大小
          long blockSize = file.getBlockSize();
          //得到分片的大小
          long splitSize = computeSplitSize(goalSize, minSize, blockSize);
		
          //定义一个bytesRemaining(剩余文件的长度) 初始值等于文件的长度
          long bytesRemaining = length;
          //只要文件的长度除以分片的大小 大于 SPLIT_SLOP(默认为1.1D)
          while (((double) bytesRemaining)/splitSize > SPLIT_SLOP) {
              //返回两个数组——其中一个主机对这个分割贡献最大,和对这个分割贡献最大的主机之一,它拥有数据缓存到它们上---getSplitHostsAndCachedHosts函数识别并返回做出共享的主机(贡献大的优先机架上贡献少的)
            String[][] splitHosts = getSplitHostsAndCachedHosts(blkLocations,
                length-bytesRemaining, splitSize, clusterMap);
              //添加到List集合中
            splits.add(makeSplit(path, length-bytesRemaining, splitSize,
                splitHosts[0], splitHosts[1]));
              //剩余文件的长度
            bytesRemaining -= splitSize;
          }

            //如果相除后小于SPLIT_SLOP(默认的溢出值)且剩余文件长度不等于0
          if (bytesRemaining != 0) {
              //同样返回两个数组——其中一个主机对这个分割贡献最大,和对这个分割贡献最大的主机之一,它拥有数据缓存到它们上
            String[][] splitHosts = getSplitHostsAndCachedHosts(blkLocations, length - bytesRemaining, bytesRemaining, clusterMap);
            splits.add(makeSplit(path, length - bytesRemaining, bytesRemaining,
                splitHosts[0], splitHosts[1]));
          }
        } else {//如果设置为不能切分,则把整个文件及其主机信息等放入数组添加到集合
          String[][] splitHosts = getSplitHostsAndCachedHosts(blkLocations,0,length,clusterMap);
          splits.add(makeSplit(path, 0, length, splitHosts[0], splitHosts[1]));
        }
      } else { 
        //Create empty hosts array for zero length files
        splits.add(makeSplit(path, 0, length, new String[0]));
      }
    }
在Matlab中,要实现将一个32*22*1000的矩阵拆解成100个32*22*10的矩阵,可以编写一个函数,利用Matlab的索引功能来实现。以下是一个可能的实现方式: ```matlab function splitMatrices = split3DMatrix(inputMatrix, splits) % inputMatrix: 32*22*1000的原始矩阵 % splits: 拆解后每个矩阵的深度大小,这里是10 % splitMatrices: 拆解后的矩阵数组,大小为[32, 22, splits, numSplits] % 获取原始矩阵的尺寸 [rows, cols, depth] = size(inputMatrix); % 计算需要拆解成多少个矩阵 numSplits = depth / splits; % 检查原始矩阵的深度是否能被splits整除 if depth ~= numSplits * splits error('原始矩阵的深度必须能被splits整除'); end % 初始化存储拆解矩阵的数组 splitMatrices = zeros([rows, cols, splits, numSplits], class(inputMatrix)); % 循环拆解矩阵 for i = 1:numSplits splitMatrices(:, :, :, i) = inputMatrix(:, :, (i-1)*splits+1:i*splits); end end ``` 使用这个函数的例子如下: ```matlab % 假设有一个32*22*1000的矩阵inputMatrix inputMatrix = rand(32, 22, 1000); % 这里用随机数矩阵作为示例 % 调用函数进行拆解 [splitMatrices, numSplits] = split3DMatrix(inputMatrix, 10); % 输出拆解后的矩阵数量 disp(['拆解后共得到 ' num2str(numSplits) ' 个矩阵']); % 检查第一个拆解后的矩阵尺寸是否正确 disp(['第一个拆解矩阵的尺寸为: ' num2str(size(splitMatrices(:, :, :, 1)))]); ``` 这段代码首先创建了一个随机的32*22*1000矩阵,然后使用`split3DMatrix`函数将其拆解成100个32*22*10的矩阵。最后,输出了拆解后矩阵的数量和第一个拆解矩阵的尺寸。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值