一、算子列表
编号 |
名称 |
1 |
map算子 |
2 |
flatMap算子 |
3 |
filter算子 |
4 |
mapPartitions算子 |
5 |
mapPartitionsWithIndex算子 |
6 |
keys算子 |
7 |
values算子 |
8 |
mapValues算子 |
9 |
flatMaplValues算子 |
10 |
union算子 |
11 |
reducedByKey算子 |
12 |
combineByKey算子 |
13 |
groupByKey算子 |
14 |
foldByKey算子 |
15 |
aggregateByKey算子 |
16 |
ShuffledRDD算子 |
17 |
distinct算子 |
18 |
partitionBy算子 |
二、代码示例
package sparkCore
import org.apache.hadoop.mapreduce.task.reduce.Shuffle
import org.apache.log4j.{Level, Logger}
import org.apache.spark.rdd.{RDD, ShuffledRDD}
import org.apache.spark.rdd.RDD.rddToPairRDDFunctions
import org.apache.spark.{Aggregator, HashPartitioner, SparkConf, SparkContext, TaskContext}
/**
* spark基本算子
*/
object basi_transform_02 {
def main(args: Array[String]): Unit = {
val conf: SparkConf = new SparkConf().setAppName("transform").setMaster("local[*]")
val sc: SparkContext = new SparkContext(conf)
sc.setLogLevel