- hadoop
一条条的key-Value PAIR
只有map reduce 两个算子 - spark
批处理
有map,flatmap,groupbykey,reducebykey,filter,join等算子 - storm
流数据
有spout(数据元)
bolt(处理方法) 没有算子,数据是一条一条来的。
要自己创建hashmap进行map,reduce等操作。
Map<String, Integer> counts = new HashMap<String, Integer>();
- flink
批流融合 flink datastream (flink dataset是批处理)
有map,flatmap,keyby,reduce,filter,sum,join等算子(reduce和keyby是分开的)
循环操作用flink dataset