MapReduce案列-数据去重

本文档详细介绍了如何使用Hadoop MapReduce实现数据去重,包括案例需求、数据文件准备、Map阶段、Reduce阶段的实现,以及Driver程序的编写和运行。通过此案例,读者可以了解并掌握大数据环境下数据去重的基本步骤和技术实现。

一,案例分析

(一)数据去重介绍

数据去重主要是为了掌握利用并行化思想来对数据进行有意义的筛选,数据去重指去除重复数据的操作。在大数据开发中,统计大数据集上的多种数据指标,这些复杂的任务数据都会涉及数据去重。

(二)案例需求

文件file1.txt本身包含重复数据,并且与file2.txt同样出现重复数据,现要求使用Hadoop大数据相关技术对以上两个文件进行去重操作,并最终将结果汇总到一个文件中。

编写MapReduce程序,在Map阶段采用Hadoop默认作业输入方式后,将key设置为需要去重的数据,而输出的value可以任意设置为空。

在Reduce阶段,不需要考虑每一个key有多少个value,可以直接将输入的key复制为输出的key,而输出的value可以任意设置为空,这样就会使用MapReduce默认机制对key(也就是文件中的每行内容)自动去重。

二,案例实施

(一)准备数据文件

(1)启动hadoop服务

启动hadoop服务,输入命令:start-all.sh
在这里插入图片描述

(2)在虚拟机上创建文本文件

1.在/opt/mrtxt目录下创建两个文本文件 - file4.txt、file5.txt
在这里插入图片描述
2.输入命令:vi /export/mrtxt/file4.txt,向file4添加如下内容:

2022-12-1 a
2022-12-2 b
2022-12-3 c
2022-12-4 d
2022-12-5 a
2022-12-6 b
2022-12-7 c
2022-12-3 c

3.输入命令:vi /export/mrtxt/file5.txt,向file5添加如下内容:

2022-12-1 b
2022-12-2 a
2022-12-3 b
2022-12-4 d
2022-12-5 a
2022-12-6 c
2022-12-7 d
2022-12-3 c

(3)上传文件到HDFS指定目录

1.创建/dedup/input目录,执行命令:hdfs dfs -mkdir -p /dedup/input
在这里插入图片描述
2.将两个文本文件 file4.txt与file5.txt,上传到HDFS的/dedup/input目录
在这里插入图片描述

(二)Map阶段实现

使用IntelliJ开发工具创建Maven项目Deduplicate,并且新创建net.army.mr包,在该路径下编写自定义Mapper类DeduplicateMapper,主要用于读取数据集文件将TextInputFormat默认组件解析的类似<0,2022-11-1 a >键值对修改为<2022-11-1 a,null>。

(1)创建Maven项目:Deduplicate

1.配置好如下图所示,然后单击【Create】按钮
在这里插入图片描述2.成功创建界面
在这里插入图片描述3.删除Main类,右击【Main】类,单击【Delete】
在这里插入图片描述

(2)添加相关依赖

1.在pom.xml文件里添加hadoop和junit依赖,添加内容如下:

<dependencies>                                  
    <!--hadoop客户端-->                            
    <dependency>                                
        <groupId>org.apache.hadoop</groupId>    
        <artifactId>hadoop-client</artifactId>  
        <version>3.3.4</version>                
    </dependency>                               
    <!--单元测试框架-->                               
    <dependency>                                
        <groupId>junit</groupId>                
        <artifactId>junit</artifactId>          
        <version>4.13.2</version>               
    </dependency>                               
</dependencies>                                 

在这里插入图片描述2.刷新maven,将依赖下载到本地仓库
在这里插入图片描述

(3)创建日志属性文件

1.在resources目录里创建log4j.properties文件,右击【resources】,选择【New】,单击【Resource Bundle】
在这里插入图片描述2.在弹出的对话框中输入:log4j,单击【OK】按钮
在这里插入图片描述

3.向log4j.properties文件添加如下内容:

log4j.rootLogger=INFO, stdout, logfile
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appende
### MapReduce 数据的经典案例与实现方法 #### 背景介绍 MapReduce 是一种分布式计算框架,用于处理大规模数据集。其核心思想是通过 **Mapper** 和 **Reducer** 的协作完成复杂的任务。在数据中,主要目标是从大量复记录中提取唯一项。 --- #### DedupDriver 主类设计 为了实现数据功能,可以创建一个名为 `DedupDriver` 的主类来配置和启动 MapReduce 工作流程。该类的主要职责是定义输入路径、输出路径以及 Mapper 和 Reducer 类型[^1]。 以下是 `DedupDriver` 的代码示例: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; public class DedupDriver { public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = Job.getInstance(conf, "Data Deduplication"); job.setJarByClass(DedupDriver.class); // 设置 Mapper 输出类型 job.setOutputKeyClass(Text.class); job.setOutputValueClass(NullWritable.class); // 配置 Mapper 和 Reducer job.setMapperClass(DedupMapper.class); job.setCombinerClass(DedupReducer.class); job.setReducerClass(DedupReducer.class); // 输入输出路径 FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } } ``` --- #### Mapper 实现逻辑 Mapper 的作用是对每条输入记录进行解析并将其作为键值对输出。对于数据场景,通常将原始数据本身设为键(key),而值(value)则使用 `NullWritable` 表示无实际意义的内容[^2]。 下面是 `DedupMapper` 的具体实现: ```java import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; import java.io.IOException; public class DedupMapper extends Mapper<LongWritable, Text, Text, NullWritable> { @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString().trim(); // 除多余空白字符 if (!line.isEmpty()) { // 过滤空行 context.write(new Text(line), NullWritable.get()); } } } ``` --- #### Combiner/Reducer 实现逻辑 Combiner 和 Reducer 的逻辑相同,在本地节点或最终阶段汇总来自不同 Mapper 的结果。它们的作用是过滤掉复的键,并仅保留唯一的键[^3]。 以下是 `DedupReducer` 的实现: ```java import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Reducer; import java.io.IOException; public class DedupReducer extends Reducer<Text, NullWritable, Text, NullWritable> { @Override protected void reduce(Text key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException { // 只需输出第一个遇到的键即可 context.write(key, NullWritable.get()); } } ``` --- #### 测试效果 当运行上述程序时,假设输入文件位于 `D:\Dedup\input` 文件夹下,经过 MapReduce 处理后的结果会保存至 `D:\Dedup\output` 文件夹中。此过程适用于小型数据集的本地测试环境[^1]。 --- #### 打包与部署 如果需要将项目打包成 JAR 文件以便于分发,则可以通过 IDE 中的 Project Structure 功能完成操作。例如,在 IntelliJ IDEA 中按照以下步骤执行:打开 Project Structure -> 单击 Artifacts -> 创建新的 Artifact 名称为 `hadoop_test` -> 将编译输出添加到 JAR 包中 -> 完成设置。 --- #### 总结 以上展示了如何利用 MapReduce 编程模型实现数据的功能。整个方案包括驱动器类的设计、Mapper 和 Reducer 的开发,以及最后的结果验证环节。 ---
评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值