MapReduce-wordcount

本文介绍了MapReduce的核心功能和在Hadoop中的作用,强调了其易于编程、良好扩展性、高容错性和适用于大规模离线处理的优点,同时也指出了其在实时计算、流式计算和DAG计算上的不足。MapReduce的计算过程分为Map和Reduce两个阶段,通过WordCount案例详细阐述了Mapper和Reducer的编程规范。文章还提供了WordCount案例的本地测试步骤和集群运行注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

MapReduce概述

        MapReduce是一个分布式运算程序的编程框架,是用户开发“基于Hadoop的数据分析应用”的核心框架。MapReduce核心功能是将用户编写的业务逻辑代码自带默认组件整合成一个完整的分布式运算程序,并发运行在一个Hadoop集群上。

优点:

1MapReduce易于编程

它简单的实现一些接口,就可以完成一个分布式程序。

2)良好的扩展性

当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。

3)高容错性

MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的。

4)适合PB级以上海量数据的离线处理

缺点:

1)不擅长实时计算

2)不擅长流式计算

流式计算的输入数据是动态的,而MapReduce的输入数据集是静态的,不能动态变化。

3)不擅长DAG(有向无环图)计算

多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce并不是不能做,而是使用后,每个MapReduce作业的输出结果都会写入到磁盘,会造成大量的磁盘IO,导致性能非常的低下。

MapReduce的计算过程

MapReduce的计算过程可以分为两个步骤:

先进行Map阶段再进行Reduce阶段。Map阶段的任务是并发的,Reduce阶段的任务也是并发的。同时该编程模型只能包含一个Map阶段和一个Reduce阶段,如果业务逻辑非常复杂,那么就要写多个MapReduce程序。

WordCount案例

在Hadoop里,其自行封装了一些数据序列化类型,要与Java的进行对比

Java类型

Hadoop Writable类型

Boolean

BooleanWritable

Byte

ByteWritable

Int

IntWritable

Float

FloatWritable

Long

LongWritable

Double

DoubleWritable

String

Text

Map

MapWritable

Array

ArrayWritable

Null

NullWritable

MapReduce的编程规范:

Mapper ,Reducer ,Driver

1.Mapper阶段

        1)用户定义的Mapper要继承父类

        2)Mapper的输入输出类型都是KV对(可自定义)

        3)Mapper的业务逻辑写在map()方法中

        4)map()方法对每一个KV都会调用一次

以WordCount为例,  a a a

每一次调用的map方法,会读取一行如a a a  ,经过业务逻辑分割,KV对为 <a,1><a,1><a,1>

此时的map是不会对着三个键值对进行整合的,会直接对其输出,作为上下文context交给Reducer。

2.Reducer阶段  

        1)用户定义的Mapper要继承父类

        2)Mapper的输出类型都是KV对(可自定义)

        3)Mapper的业务逻辑写在reduce()方法中

        4)reduce Task进程会对每一组相同K的<K,V>组调用一次reduce方法()

即Mapper传递过来的KV对,找到相同的K,依次进行组合。输出<a,3>

3.Driver阶段

        相当于Yarn集群的客户端,将我们的任务提交给Yarn,由yarn为我们的任务分配资源。传递给Yarn的是封装了MapReduce程序相关运行参数的job对象

WordCount案例本地测试(pom.xml配置了依赖,且配置log4j的日志资源)

(由于之前在Windows环境下安装了hadoop并且配置了Windows依赖,我们先准备好java程序,在本地进行测试。)

编写Mapper、Reducer、Driver类(注意导包不要发生错误

package com.zc.mapreduce.wordcount;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

/**
 * @program:MapReduceDemo
 * @descripton:
 * KEYIN,---------      LongWriterable
 * VALUEIN::---------  Text
 * KEYOUT, ---------:  Text
 * VALUEOUT,---------  IntWriterable
 **/
public class WordCountMapper extends Mapper<LongWritable, Text,Text, IntWritable>{
    private Text outKey = new Text();//提高性能
    private IntWritable outVal = new IntWritable(1);
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        //1.获取一行信息
        String line = value.toString();
        //切割
        String[] words = line.split(" ");//zc jyx 等
        //循环写出
        for (String word : words) {
            //封装
            outKey.set(word);
            //写出
            context.write(outKey,outVal);
        }
    }
}
package com.zc.mapreduce.wordcount;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

/**
 * @program:MapReduceDemo
 * @descripton:map的输出,是Reduce的输入
 * KEYIN,   ------  Text
 * VALUEIN, ------  IntWriterable
 * KEYOUT,  ------  Text
 * VALUEOUT ------  IntWriterable
 **/
public class WordCountReducer extends Reducer<Text, IntWritable,Text,IntWritable> {
    private IntWritable outVal = new IntWritable();
    @Override
    protected void reduce(Text key, Iterable<IntWritable> values, Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {
        int sum =0;
        //Iterable相当于是一个集合
        for (IntWritable value : values) {
            sum += value.get();
        }
        //写出
        outVal.set(sum);
        context.write(key,outVal);
    }
}
package com.zc.mapreduce.wordcount;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;

/**
 * @program:MapReduceDemo
 * @descripton:
 * @author:ZhengCheng
 * @create:2021/10/28-21:00
 **/
public class WordCountDriver {
    public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException {
        //1.获取job
        Configuration conf = new Configuration();
        Job job = Job.getInstance(conf);
        //2.设置jar包路径
        job.setJarByClass(WordCountDriver.class);
        //3.关联mapper和reducer
        job.setMapperClass(WordCountMapper.class);
        job.setReducerClass(WordCountReducer.class);
        //4.设置map的输出的key-val类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);
        //5。设置最终输出的key-val类型
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        //6.设置输入路径和输出路径
     //   FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileInputFormat.setInputPaths(job, new Path("E:\\HDFS"));
     // FileOutputFormat.setOutputPath(job, new Path(args[1]));
        FileOutputFormat.setOutputPath(job, new Path("E:\\HDFSout\\a"));
        //7.提交job
        boolean result = job.waitForCompletion(true);
        System.exit(result ? 0 : 1);
    }
    /*
    传入的true or false 就是看是否需要这些东西。即监控我们的进程并且printjob
    if (verbose) {
            this.monitorAndPrintJob();
        } else {
            int completionPollIntervalMillis = getCompletionPollInterval(this.cluster.getConf());

            while(!this.isComplete()) {
                try {
                    Thread.sleep((long)completionPollIntervalMillis);
                } catch (InterruptedException var4) {
                }
            }
        }
     */


}

注意:此时运行IDEA要用管理员身份运行,避免发生权限不足导致的异常。其次,我们在设置输出路径时,我们需要注意,输出路径必须不存在。否则会有FileAlreadyExist异常。

之后变会得到输出结果。在part-r-00000中用nodepad++打开即可。

本地测试无误后,我们将上述代码中的输入输出路径做出更改。为了让我们可以随意的指定输入输出路径,按照类似shell编程中的传递参数,我们将其修改为args[0] 和args[1]

如果不知道String args[]是什么东西,可以查看相关文章。其类似于我们在执行该程序时,给程序传递的参数。第一个参数赋给arg[0],依次类推。

那么我们将文件用Maven打包,导入到虚拟机(集群)中。开启Hadoop集群,使用命令运行该jar包。

 

 注意:jar包里的Diver,一定要使用全类名。不知道的可以在IDEA里,找到Copy Reference即可复制。

给出输入输出路径,执行即可。如果出现了一些异常。可以查看我的相关文章。

最后在Hadoop-1:9870中,我们可以看到自己的输出结果。WordCount案例顺利完成。

<think>好的,我现在需要解决用户在运行Hadoop 3.1.3的WordCount示例时遇到的JAR文件缺失的问题。首先,我得回想一下Hadoop的常规安装和示例JAR的位置。通常,Hadoop安装后会自带一些示例JAR,比如hadoop-mapreduce-examples-X.X.X.jar,里面应该包含WordCount等示例程序。 用户提到的是Hadoop 3.1.3版本,可能的问题有几个方面:安装不完整、JAR文件路径错误、或者用户没有正确指定JAR路径。我需要先确认默认情况下这个JAR的位置在哪里。一般来说,Hadoop的示例JAR通常存放在$HADOOP_HOME/share/hadoop/mapreduce目录下,文件名类似hadoop-mapreduce-examples-3.1.3.jar。用户可能没有正确找到这个路径,或者安装过程中该文件未被正确下载或解压。 接下来,用户可能没有正确使用hadoop命令来运行示例。正确的命令应该是通过hadoop jar指定JAR文件,然后传入主类名和输入输出路径。例如:hadoop jar hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output。如果用户没有正确指定JAR路径,或者当前工作目录不在该JAR所在的目录下,就会报错找不到文件。 另外,用户可能误用了旧版本的示例JAR名称。在Hadoop的不同版本中,示例JAR的命名可能有所变化,比如有的版本可能分为多个不同的JAR,而3.1.3可能整合到了一个文件中。需要确认具体的文件名是否存在,或者是否被移动到了其他目录下。 还有一种情况是,用户可能通过源码编译安装Hadoop,但在编译过程中没有生成示例JAR。这时候需要重新编译并确保启用了示例程序的构建选项。或者,用户可能下载的是二进制分发包,但下载过程中文件损坏或不完整,导致示例JAR缺失,这时候需要重新下载安装包并验证完整性。 此外,环境变量HADOOP_HOME是否设置正确也会影响路径的查找。如果用户没有正确设置该变量,可能导致无法定位到JAR文件的位置。需要检查环境变量,并确保命令中使用的路径是正确的绝对路径或相对路径。 最后,如果确实找不到JAR文件,可能需要手动下载示例JAR,或者从源码编译生成。另外,用户也可以考虑使用其他方式运行WordCount,比如直接编写Java代码并打包成JAR,但这可能对于初学者来说比较复杂。 总结可能的解决步骤:检查JAR文件是否存在指定路径,确认命令的正确性,验证Hadoop安装完整性,重新下载或编译示例JAR,检查环境变量设置,以及考虑替代方法。</think>针对Hadoop 3.1.3运行WordCount示例时JAR文件缺失的问题,以下是分步解决方案: ### 1. 确认默认JAR文件路径 Hadoop示例JAR通常位于安装目录的`share/hadoop/mapreduce`子目录中,完整路径为: ```bash $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar ``` 若未设置`$HADOOP_HOME`环境变量,需通过绝对路径访问,例如: ```bash /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar ``` ### 2. 验证文件存在性 执行以下命令检查文件是否存在: ```bash ls $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar ``` 若输出包含`3.1.3`版本号则文件存在,否则需进行以下操作。 ### 3. 重新安装Hadoop示例包 若文件缺失,可能是安装包不完整导致。需: - 从Apache镜像站重新下载二进制包: ```bash wget https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz ``` - 解压后验证文件完整性: ```bash tar -tf hadoop-3.1.3.tar.gz | grep "mapreduce/hadoop-mapreduce-examples" ``` ### 4. 通过源码编译生成(可选) 若使用源码编译安装: ```bash mvn clean package -DskipTests -Pdist,native ``` 编译后示例JAR位于: ```bash hadoop-mapreduce-project/target/hadoop-mapreduce-examples-3.1.3.jar ``` ### 5. 执行WordCount的正确命令格式 使用完整路径运行: ```bash hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input_path /output_path ``` ### 6. 常见错误处理 - **错误提示**:`No such file or class on classpath: wordcount` 原因:未正确指定主类名,应使用`wordcount`全小写格式[^1] - **错误提示**:`Exception in thread "main" java.lang.ClassNotFoundException` 原因:JAR文件路径错误或文件损坏,需重新下载 ### 替代方案 若仍无法解决,可手动创建WordCount程序: ```java // 编译后打包为wc.jar hadoop jar wc.jar WordCount /input /output ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值