- hadoop
一条条的key-Value PAIR
只有map reduce 两个算子 - spark
批处理
有map,flatmap,groupbykey,reducebykey,filter,join等算子 - storm
流数据
有spout(数据元)
bolt(处理方法) 没有算子,数据是一条一条来的。
要自己创建hashmap进行map,reduce等操作。
Map<String, Integer> counts = new HashMap<String, Integer>();
- flink
批流融合 flink datastream (flink dataset是批处理)
有map,flatmap,keyby,reduce,filter,sum,join等算子(reduce和keyby是分开的)
循环操作用flink dataset
本文对比了Hadoop、Spark、Storm及Flink等大数据处理框架的特点与应用场景,详细介绍了各框架支持的操作算子,如map、reduce、groupbykey等,并探讨了它们在批处理与流数据处理中的优势。
921

被折叠的 条评论
为什么被折叠?



