package cn.itcast.mapreduce;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
/***
*
* @author AllenWoon
*
* reducetask在调用我们的reduce方法
*
* reducetask应该接收到map阶段(前一阶段)中所有maptask输出的数据中的一部分;
* (key.hashcode% numReduceTask==本ReduceTask编号)
*
* reducetask将接收到的kv数据拿来处理时,是这样调用我们的reduce方法的:
*
* 先讲自己接收到的所有的kv对按照k分组(根据k是否相同)
*
* 然后将一组kv中的k传给我们的reduce方法的key变量,把这一组kv中的所有的v用一个迭代器传给reduce方法的变量values
*
*/
public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{
@Override
protected void reduce(Text key, Iterable<IntWritable> values,
Context context) throws IOException, InterruptedException {
int count =0;
for(IntWritable v :values){
count += v.get();
}
context.write(key, new IntWritable(count));
}
}
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
/***
*
* @author AllenWoon
*
* reducetask在调用我们的reduce方法
*
* reducetask应该接收到map阶段(前一阶段)中所有maptask输出的数据中的一部分;
* (key.hashcode% numReduceTask==本ReduceTask编号)
*
* reducetask将接收到的kv数据拿来处理时,是这样调用我们的reduce方法的:
*
* 先讲自己接收到的所有的kv对按照k分组(根据k是否相同)
*
* 然后将一组kv中的k传给我们的reduce方法的key变量,把这一组kv中的所有的v用一个迭代器传给reduce方法的变量values
*
*/
public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{
@Override
protected void reduce(Text key, Iterable<IntWritable> values,
Context context) throws IOException, InterruptedException {
int count =0;
for(IntWritable v :values){
count += v.get();
}
context.write(key, new IntWritable(count));
}
}
本文介绍了一个MapReduce单词计数应用中的Reducer实现细节。该Reducer接收来自Map阶段的键值对,按照键进行分组,并对每个分组中的值进行累加,最终输出键及其对应的累计值。
422

被折叠的 条评论
为什么被折叠?



