运行hadoop2.x自带的wordcount

本文详细介绍了如何使用Hadoop2.x自带的WordCount程序进行文本统计,从创建本地文件到上传至HDFS,再到运行WordCount并解析输出结果,全程实战操作,适合Hadoop初学者快速上手。

运行hadoop2.x自带的wordcount

(1)首先在master虚拟机本地某一个目录下创建一个文件夹file,用来存储将要上传到HDFS的文件
我是在/opt/hadoop路径下创建的文件夹file
cd /opt/hadoop
mkdir file

(2)接着进入file文件夹,然后创建一个文本文件file1.txt,并输入内容(路径自己随便写)
cd file
vi file1.txt #hello world

(3)用hadoop dfs命令在HDFS上创建用来接收本地文件的文件夹input
hadoop dfs -mkdir /input
hadoop dfs -ls /
hadoop dfs -ls /input

(4)将刚才在本地创建的一个文件上传到HDFS的input中
vi file1.txt #hello world
hadoop dfs -put /opt/hadoop/file/file1.txt /input/01
hadoop dfs -ls /input

(5)现在已经将文件上传到HDFS上了,接下来就要用hadoop自带的Wordcount程序对其进行统计
首先进入到Wordcount程序所在目录(找自己的hadoop的安装目录)
cd /opt/hadoop/share/hadoop//mapreduce/
ll //查看命令,查看当前路径下是否有hadoop-mapreduce-examples-2.7.2.jar包
hadoop jar hadoop-mapreduce-examples-2.7.2.jar wordcount /input/file1.txt /output/01

执行命令运行Wordcount程序,并将结果输出到/output/01目录下(输出目录自动生成,不可提前创建)
hadoop dfs -ls /output/01 (01作为输入结果的文件,不能提前存在,必须是hdfs自己运行时生成的)

(6)接下来看输出结果,一共生成2个文件,我们的统计结果在part-r-00000文件中。

package org.apache.hadoop.examples; //#region 引入的包 import java.io.IOException; import java.util.Iterator; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.util.GenericOptionsParser; //#endregion //#region单词统计 public class WordCount { public WordCount() { } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); String[] otherArgs = (new GenericOptionsParser(conf, args)).getRemainingArgs(); if(otherArgs.length < 2) { System.err.println("Usage: wordcount <in> [<in>...] <out>"); System.exit(2); } Job job = Job.getInstance(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(WordCount.TokenizerMapper.class); job.setReducerClass(WordCount.IntSumReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); for(int i = 0; i < otherArgs.length - 1; ++i) { FileInputFormat.addInputPath(job, new Path(otherArgs[i])); } FileOutputFormat.setOutputPath(job, new Path(otherArgs[otherArgs.length - 1])); System.exit(job.waitForCompletion(true)?0:1); } public static class TokenizerMapper extends Mapper<Object,Text,Text,IntWritable> { private Text YM = new Text(); private IntWritable temp=new IntWritable(); public TokenizerMapper() { } public void map(Object key, Text value, Context context) throws IOException, InterruptedException { String[] v=(value.toString()).split(" "); String ym=v[1].split("-")[0]+v[1].split("-")[1]; int temp= Integer.parseInt(v[4]); System.out.println(ym); System.out.println( temp); this.YM.set(ym); this.temp.set(temp); context.write(this.YM, this.temp); } } public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> { private IntWritable result = new IntWritable(); public IntSumReducer() { } public void reduce(Text key, Iterable<DoubleWritable> values, Context context) throws IOException, InterruptedException { int maxtemp = 0; IntWritable temp; while(values.iterator().hasNext()) { temp = values.iterator().next(); int newtemp=temp.get(); if(newtemp> maxtemp) maxtemp=newtemp; } this.result.set(maxtemp); context.write(key, this.result); } } } //#endregion代码有错,修改
最新发布
11-25
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值