package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-18. * 统计出集合中每个元素的个数 */ object CountByValue { def main(args: Array[String]) { val conf = new SparkConf().setAppName("spark-demo").setMaster("local") val sc = new SparkContext(conf) val xx = sc.parallelize(List(1,1,1,1,2,2,3,6,5,9)) //打印结果:Map(2 -> 2, 5 -> 1, 1 -> 4, 9 -> 1, 3 -> 1, 6 -> 1) println(xx.countByValue()) } }
spark rdd countByValue
最新推荐文章于 2023-05-24 17:17:52 发布
本文通过使用Apache Spark的countByValue方法,展示了如何统计集合中各个元素出现的次数。示例代码采用Scala编写,适用于初学者理解Spark的基本操作。
289

被折叠的 条评论
为什么被折叠?



