Mapreduce过程

本文以经典数词程序为例,介绍了MapReduce的工作流程。Mapper接收数据行,按行分割得到键值对(行号,行内容),再处理成(单词,1)。Shuffle阶段将键值对归档,Reducer根据相同key的键值对进行处理,统计每个单词出现的次数,最终将结果写入上下文。适合大数据并行计算初学者理解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

以经典数词程序为例:

当mapper接收到一行value时,

package com.datang.mr;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
public class WordCountMapper  extends Mapper<LongWritable,Text,Text,IntWritable>{
	
	protected void map(LongWritable key, Text value,Context context)
			throws IOException, InterruptedException {
	
		String [] str = value.toString().split(" ");
		//接收到一行value,分成一个个词
		
		for(int i = 0;i<str.length;i++){

			context.write(new Text(str[i]), new IntWritable(1));
			//每个词都对应一个键值对  <key:xxx, value:1>
		}
		
	}

}

reducer获得经过shulffer后的数据

package com.datang.mr;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

// a 1  
// a 1

//b 1
//b 1
//b 1

public class WordCountReducer extends Reducer<Text,IntWritable,Text,IntWritable> {

	
	@Override
	protected void reduce(Text arg0, Iterable<IntWritable> arg1,Context arg2)
			throws IOException, InterruptedException {
		
		int sum = 0;
		
		for(IntWritable i :arg1){
			
			sum = sum+i.get();
			
		}
		//统计出此迭代器的长度,就是此单词(arg0)的总个数
		arg2.write(arg0, new IntWritable(sum));
		
	}
		
}

  1. 按行分割 得到一个个key(行号) value(行内容),分配给一个个mapper
  2. mapper将输入的键值对处理成另一种键值对,key(单词) value(1),意为在本行中此单词出现了一次
  3. shouffer将mapper们的键值对归档,得到一组组key(单词)相同的键值对
  4. reducer得到经shouffer的键值对组,组名为key(单词)以及一个含有对应值的迭代器,迭代器的长度就是此单词的长度,将其写入上下文congtext

图示:
在这里插入图片描述

新学大数据,以上只是个人理解,愿读者勘误

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值