combineByKey是Spark中一个比较核心的高级函数, groupByKey、reduceByKey的底层都是使用combineByKey实现的,所以需要弄清楚它。
def combineByKey[C](createCombiner: (V) => C,
mergeValue: (C, V) => C,
mergeCombiners: (C, C) => C): RD
- createCombiner: combineByKey() 会遍历分区中的所有元素,因此每个元素的键要么还没有遇到过,要么就和之前的某个元素的键相同。如果这是一个新的元素, combineByKey() 会使用一个叫作 createCombiner() 的函数来创建那个键对应的累加器的初始值
- mergeValue: 如果这是一个在处理当前分区之前已经遇到的键, 它会使用 mergeValue() 方法将该键的累加器对应的当前值与这个新的值进行合并
- mergeCombiners: 由于每个分区都是独立处理的, 因此对于同一个键可以有多个累加器。如果有两个或者更多的分区都有对应同一个键的累加器, 就需要使用用户提供的 mergeCombiners() 方法将各个分区的结果进行合并。
如果value是元组的话,需要定义出一个type:
type songType = (String, Double)
val mergeRDD = toWeightRDD.combineByKey(
(x: songType) => (List(x), 1),
(song: (List[songType], Int), x: songType) => (x :: song._1, song._2 + 1),
(uid1: (List[songType], Int), uid2: (List[songType], Int)) => (uid1._1 ::: uid2._1, uid1._2 + uid2._2)
)
需要注意的一点是,createCombine方法必须是这样的:
Function<ScoreDetail, Tuple2<Float, Integer>> createCombine = new Function<ScoreDetail, Tuple2<Float, Integer>>() {
@Override
public Tuple2<Float, Integer> call(ScoreDetail scoreDetail) throws Exception {
return new Tuple2<>(scoreDetail.score, 1);
}
};