本文内容来自官网 spark自定义累加器 的api
http://spark.apache.org/docs/2.1.1/api/scala/index.html#org.apache.spark.util.AccumulatorV2
累加器描述
http://spark.apache.org/docs/2.1.1/programming-guide.html#accumulators
累加器是仅通过关联和交换操作“添加”到的变量,因此可以有效地并行支持。它们可用于实现计数器(如MapReduce)或求和。Spark本身支持数值类型的累加器,程序员可以添加对新类型的支持。
作为用户,可以创建命名或未命名的累加器。如下图所示,一个命名的累加器(在此实例计数器中)将显示在修改该累加器的阶段的web UI中。Spark在“Tasks”表中显示由任务修改的每个累加器的值。
在UI中跟踪累加器对于理解运行阶段的进度非常有用(注意:Python还不支持这一点)。