import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import java.io.IOException; /** * 单词计数 * * 需求:读取hdfs上的hell.txt文件,计算文件中每个单词出现的总次数 * hello.txt文件内容如下: * hello you * hello me * * 最终需要的结果形式如下: * hello 2 * me 1 * you 1 * * Created by xuwei.tech */ public class WordCountJob { /** * 创建自定义mapper类 * 第一个LongWritable K1代表每行行首的偏移量 */ public static class MyMapper extends Mapper<LongWritable,Text,Text,LongWritable>{ /** * 需要实现map函数 * 这个map函数就是可以接收k1,v1, 产生k2,v2 * @param k1 * @param v1 * @param
hadoop的wordcount代码
最新推荐文章于 2021-05-05 23:04:24 发布