Hadoop与Spark算法分析(一)——WordCount

本文详细分析了Hadoop和Spark实现WordCount算法的过程,包括Hadoop的map和reduce阶段,以及Spark简洁的代码实现。通过上传文件到HDFS,运行并对比Hadoop和Spark的执行命令及结果,探讨两者在大数据处理上的差异。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

WordCount是大数据编程的入门程序,实现对输入文件中每个单词出现次数的统计,可应用于海量文本的词频检索。过程如下图所示:

这里写图片描述

1. Hadoop实现

map过程调用map函数以文件中每行首个字符的偏移量和整行值为输入参数,将值进行单词的拆分,并最终输出(单词,1)的键值对。
reduce过程从各Map端收集得到(单词,列表(1,1,…1))键值对,通过对值列表相加计算单词主键的出现频数,最终得到(单词,频数)键值对。
具体代码实现如下:

package org.hadoop.test;

import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;

public class WordCount {
   
   
    public static class TokenizerMapper 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值