前言
SparkSession
在老的版本中,SparkSQL提供两种SQL查询起始点,一个叫SQLContext,用于Spark自己提供的SQL查询,一个叫HiveContext,用于连接Hive的查询,SparkSession是Spark最新的SQL查询起始点,实质上是SQLContext和HiveContext的组合,所以在SQLContext和HiveContext上可用的API在SparkSession上同样是可以使用的。SparkSession内部封装了sparkContext,所以计算实际上是由sparkContext完成的。
import org.apache.spark.sql.SparkSession
val spark = SparkSession
.builder()
.appName("Spark SQL basic example")
.config("spark.some.config.option", "some-value")
.getOrCreate()
// For implicit conversions like converting RDDs to DataFrames
import spark.implicits._
SparkSession.builder用于创建一个SparkSession。import spark.implicits._的引入是用于将DataFrames隐式转换成RDD,使df能够使用RDD中的方法。
如果需要Hive支持,则需要以下创建语句(.enableHiveSupport()
):
import org.apache.spark.sql

本文详细介绍了如何使用SparkSession进行SparkSQL查询,包括在Spark-Shell中执行查询,IDEA中创建SparkSQL程序以及利用Spark SQL CLI进行命令行查询。文章还提到了与Hive的集成和相关依赖的配置。
最低0.47元/天 解锁文章
3088

被折叠的 条评论
为什么被折叠?



