关于mapreduce

关于mapreduce

      mapreduce很适合数据之间相关性较低且数据量庞大的情况,map操作将原始数据经过特定操作打散后输出,作为中间结果,hadoop通过shuffle操作对中间结果排序,之后,reduce操作接收中间结果并进行汇总操作,最后将结果输出到文件中,从这里也可以看到在hadoop中,hdfs是mapreduce的基石。可以用下面这幅图描述map和reduce的过程:

 image

       有人用这么一句话解释mapreduce:

       We want to count all the books in the library. You count up shelf #1, I count up shelf #2. That's map. The more people we get, the faster it goes. 
我们要数图书馆中的所有书。你数1号书架,我数2号书架。这就是“Map”。我们人越多,数书就更快。

Now we get together and add our individual counts. That's reduce. 
现在我们到一起,把所有人的统计数加在一起。这就是“Reduce”。


From:http://www.cnblogs.com/vivounicorn/archive/2011/09/20/2182433.html

MapReduce是一种编程模型和实现,用于处理和生成大规模数据集。它由Google提出,并广泛应用于大数据处理领域。MapReduce的主要思想是将大规模数据集的处理任务分成两个阶段:Map阶段和Reduce阶段。 1. **Map阶段**:在这个阶段,输入数据集被分成若干个小块,每个小块由一个Map函数处理。Map函数将输入的键值对转换为中间键值对。 2. **Reduce阶段**:在这个阶段,所有中间键值对根据键进行分组,并传递给Reduce函数。Reduce函数将具有相同键的值合并,生成最终的输出结果。 MapReduce的优点包括: - **可扩展性**:可以轻松地在多台机器上并行处理大规模数据。 - **容错性**:如果某台机器发生故障,MapReduce框架可以自动重新调度任务到其他机器上。 - **简单性**:开发人员只需编写Map和Reduce函数,而无需处理分布式系统的复杂性。 以下是一个简单的MapReduce示例,用于计算单词出现的频率: ```python from collections import defaultdict def map_function(document): words = document.split() word_count = defaultdict(int) for word in words: word_count[word] += 1 return word_count.items() def reduce_function(word, counts): return (word, sum(counts)) # 示例数据 documents = [ "hello world", "hello 优快云", "hello MapReduce" ] # Map阶段 intermediate = [] for doc in documents: intermediate.extend(map_function(doc)) # Reduce阶段 result = defaultdict(list) for word, count in intermediate: result[word].append(count) final_result = [reduce_function(word, counts) for word, counts in result.items()] print(final_result) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值