简单的来说,SparkSession是Spark2.0版本中SparkContext更好用的接口
package com.imooc.spark
import org.apache.spark.sql.SparkSession
/**
* @author lihanwen
* SparkSession是spark2.0之后才有的,可以用来替代SparkContext
*/
object SparkSessionApp {
def main(args: Array[String]) {
val path = args(0)
val spark = SparkSession.builder().appName("SparkSessionAPP").master("local[2]").getOrCreate()
val people = spark.read.json(path)
//此处可以沿用SparkContext的方法:val people = spark.read.format("json").load(path)
people.show()
}
}
本文介绍了SparkSession在Spark2.0版本中作为SparkContext的替代接口的应用,详细讲解了如何使用SparkSession读取JSON文件,并展示了其在数据处理任务中的优势。
3017

被折叠的 条评论
为什么被折叠?



