用spark版本1.3+
val conf=new SparkConf().setAppName("WordCount")
val sc=new SparkContext(conf)
//构建RDD并调用Transformation
//textFile创建一个hadoopRdd,产生一个MapPartitionsRDD
//flatMap 产生一个MapPartitionsRDD
// map 产生一个MapPartitionsRDD
// reduceByKey 产生一个ShuffledRDD 宽依赖
// saveAsTextFile 产生一个MapPartitionsRDD
// 切分stage 记住最后个rdd 从后往前推