Spark SQL 中临时视图有两种,一种局部临时视图,只在当前SparkSession会话中有效;不能跨SparkSession访问。另一种是全局临时视图,作用于某个Spark应用程序的所有SparkSession会话。
即全局临时视图是跨会话的。 它的生命周期和Spark应用程序的生命周期相同,当应用程序终止时,它将自动删除。 默认保存在系统保留的global_temp数据库下。所以查询全局临时视图时需要在视图名前面加上数据库名。即
global_temp.全局视图名。例如:
select * from global_temp.全局临时视图名
代码案例:
case class User(id: Int, name: String)
object SparkSessionDemo {
def main(args: Array[String]): Unit = {
//创建sparksession
val sparkSession = SparkSession.builder().appName("test1").master("local[*]") getOrCreate()
import sparkSession.implicits._
/**
*创建源RDD,用于构建DataFrame
*/
val userRDD = sparkSession.sparkContext.makeRDD(Seq(
(1, "tom"),
(2, "jack"),
(3, "toto"),
(4, "jom")
))
val usersRDD: RDD[User]