分治算法模型有三步:
(1)把大问题分解为小问题;
(2)求解小问题;
(3)合并小问题的解得到大问题的解。
在Hadoop上编写程序,我们只需要实现map函数(对应于分治算法的第二步:对小问题求解)和reduce函数(对应于分治算法的第三步:合并小问题的解),因为Hadoop平台帮我们做了问题的分解这一步。
从上面的图中,可以看出Hadoop提高解决问题速度的原因:它把大问题分解到不同的节点上并行的求解。
分治算法模型有三步:
(1)把大问题分解为小问题;
(2)求解小问题;
(3)合并小问题的解得到大问题的解。
在Hadoop上编写程序,我们只需要实现map函数(对应于分治算法的第二步:对小问题求解)和reduce函数(对应于分治算法的第三步:合并小问题的解),因为Hadoop平台帮我们做了问题的分解这一步。
从上面的图中,可以看出Hadoop提高解决问题速度的原因:它把大问题分解到不同的节点上并行的求解。