马克-to-win @ 马克java社区:reduceByKey(_+_)是reduceByKey((x,y) => x+y)的一个 简洁的形式
*/
val rdd08 = sc.parallelize(List((1, 1), (1, 4),(1, 3), (3, 7), (3, 5)))
val rdd08_1 = rdd08.reduceByKey((x, y) => x + y)
println("reduceByKey 用法 " + rdd08_1.collect().mkString(","))
sc.stop()
}
def myunion(rdd05: RDD[Int], rdd06: RDD[Int]): Unit = {
val res: RDD[Int] = rdd05.union(rdd06)
更多请见:https://blog.youkuaiyun.com/qq_44596980/article/details/93311988
本文介绍了在Spark中使用reduceByKey简化操作的方法,通过示例代码展示如何对RDD进行reduceByKey操作实现数据聚合,并讲解了union函数的使用,以实现两个RDD的并集操作。
567

被折叠的 条评论
为什么被折叠?



