SparkSQL扩展读写

Reader

  @Test
  def reader(): Unit ={
    val spark = SparkSession.builder()
      .appName("reader_test")
      .master("local[*]")
      .getOrCreate()

    val reader: DataFrameReader = spark.read
    
    reader
      .format("csv")
      .option("header", true)
      .option("inferSchema",true)
      .load("dataset/PRSA_data_2010.1.1-2014.12.31.csv")
      .show()
	// .csv 底层依旧是 format.load , 只是框架做了一层封装
    reader
      .option("header", true)
      .option("inferSchema",true)
      .csv("dataset/PRSA_data_2010.1.1-2014.12.31.csv")
      .show()
  }

DataFrameReader 三大组件

  1. schema - 结构信息
  2. option - 可选参数
  3. format - 数据格式

Writer

DataFrameWriter 组件

  1. source - 写入目标
  2. mode - 写入模式
  3. extraOption - 外部参数
  4. partitioningColumns - 分区
  5. bucketColumnNames - 分桶
  6. sortColumnNames - 排序
  @Test
  def writer(): Unit = {
	// 因为需要 写入 ,所以 需要 winutils.exe , 不然启动报错
    System.setProperty("hadoop.home.dir", "D:\\software\\hadoop\\hadoop-2.7.2")

    val spark = SparkSession.builder()
      .appName("writer")
      .master("local[*]")
      .getOrCreate()

    val reader: DataFrameReader = spark.read

    val df = reader
      .option("header", true)
      .option("inferSchema", true)
      .csv("dataset/PRSA_data_2010.1.1-2014.12.31.csv")

    df.write.json("dataset/PRSA_data1.json")

    df.write.format("json").save("dataset/PRSA_data2.json")

  }

链接:百度云盘 - winutils.exe
提取码:4ewn

Parquet


  @Test
  def parquet(): Unit = {
    System.setProperty("hadoop.home.dir", "D:\\software\\hadoop\\hadoop-2.7.2")

    val spark = SparkSession.builder()
      .appName("parquet")
      .master("local[*]")
      .getOrCreate()

    //    1. 读取 csv 文件
    val df = spark.read.option("header", true)
      .csv("dataset/PRSA_data_2010.1.1-2014.12.31.csv")

    //    2. 保存为 parquet 文件

    //    小细节:写入的时候默认格式就是 parquet
    df.write
      //      写入格式 报错,覆盖,追加,忽略
      //      小细节:默认报错
      .mode(SaveMode.Overwrite)
      .format("parquet")
      .save("dataset/PRSA_data3")


    //    3. 读取 parquet 文件
    //    小细节:读取默认文件格式为 parquet
    //    可以读取文件夹
    val frame = spark.read
      .load("dataset/PRSA_data3")
    frame.show(10)
  }

  /**
    * 表分区的概念不仅在 parquet 上有,其他格式的文件也可以指定表分区
    */
  @Test
  def parquetPartitions(): Unit = {
    System.setProperty("hadoop.home.dir", "D:\\software\\hadoop\\hadoop-2.7.2")

    val spark = SparkSession.builder()
      .appName("parquet")
      .master("local[*]")
      .getOrCreate()

    //    1. 读取 csv 文件
    val df = spark.read.option("header", true)
      .csv("dataset/PRSA_data_2010.1.1-2014.12.31.csv")

    //    写入表分区
    df.write
      .partitionBy("year", "month")
      .save("dataset/PRSA_data4")

    //    读分区表
    spark.read
      .parquet("dataset/PRSA_data4")
      .printSchema()
  }

JSON

  @Test
  def json(): Unit = {

    System.setProperty("hadoop.home.dir", "D:\\software\\hadoop\\hadoop-2.7.2")

    val spark = SparkSession.builder()
      .appName("parquet")
      .master("local[*]")
      .getOrCreate()

    //    1. 读取 csv 文件
    val df = spark.read.option("header", true)
      .csv("dataset/PRSA_data_2010.1.1-2014.12.31.csv")

    //    df.write.json("dataset/PRSA_data5")

    spark.read.json("dataset/PRSA_data5").show(10)
  }

  @Test
  def json2(): Unit = {

    System.setProperty("hadoop.home.dir", "D:\\software\\hadoop\\hadoop-2.7.2")

    val spark = SparkSession.builder()
      .appName("parquet")
      .master("local[*]")
      .getOrCreate()

    //    1. 读取 csv 文件
    val df: DataFrame = spark.read.option("header", true)
      .csv("dataset/PRSA_data_2010.1.1-2014.12.31.csv")

    //    把 Dataset[Object] 转为 Dataset[JsonString]
    df.toJSON.show(10)

    //    可以直接从RDD 读取json的dataframe 把 Dataset[JsonString] 转为 DataSet[Object]
    val jsonrdd = df.toJSON.rdd
    spark.read.json(jsonrdd).show(10)
  }
### 回答1: Spark SQL是Spark生态系统中的一个组件,它提供了一种用于结构化数据处理的高级数据处理接口。Spark SQL支持使用SQL语言进行数据查询和处理,并且可以与Spark的其他组件(如Spark Streaming、MLlib等)无缝集成。Spark SQL还支持使用DataFrame API进行数据处理,这使得开发人员可以使用Scala、Java、Python和R等编程语言进行数据处理。Spark SQL还支持将数据存储在各种数据源中,如Hive、JSON、Parquet等。Spark SQL的主要优点是可以处理大规模的结构化数据,并且具有高性能和可扩展性。 ### 回答2: SparkSQL是Apache Spark中的一种组件,它用于处理结构化和半结构化数据。与传统的Spark核心功能相比,SparkSQL提供了更高级的数据处理工具,使得用户可以使用SQL查询和操作结构化数据。 SparkSQL的基本概念包括DataFrame和Dataset。DataFrame是强类型的分布式数据集,它可以看作是一个表,每一列都有一个名字和数据类型。Dataset是比DataFrame更加丰富的API,它可以以编程的方式进行查询和操作数据。 SparkSQL支持使用标准的SQL查询语言进行数据查询和聚合。用户可以编写SQL语句来过滤、聚合和排序数据,并通过SparkSQL将结果存储在DataFrame或Dataset中。 SparkSQL还支持多种数据格式的读取和写入,包括Parquet、Avro、JSON和CSV等。用户可以通过提供Schema来从这些格式中读取数据,并可以选择将数据以这些格式写入磁盘。 另外,SparkSQL还提供了与Hive的集成,使得用户可以使用Hive的元数据和UDF函数。用户可以通过SparkSQL查询Hive表,并将查询结果存储在Hive表中。 SparkSQL还支持缓存数据以提高查询性能。用户可以使用DataFrame或Dataset的persist()方法将数据持久化到内存或磁盘中,并可以通过调用unpersist()方法来释放缓存的数据。 总结来说,SparkSQL是Apache Spark中用于处理结构化和半结构化数据的组件,它提供了DataFrame和Dataset的概念,支持使用SQL语言进行数据查询和聚合,以及多种数据格式的读写,还具备与Hive的集成以及数据缓存等功能。 ### 回答3: Spark SQL是Apache Spark的一个模块,它提供了用于处理结构化数据的SQL查询和集成,使得在Spark中可以方便地进行数据处理和分析。 Spark SQL的核心是DataFrames,它是一种可处理具有命名列的分布式数据集的数据结构。DataFrames可以由多种数据源创建,包括结构化数据、Parquet文件、JSON文件、Hive表等。与传统的RDD相比,DataFrames具有更高的性能和更强的优化能力,因为它们提供了类似于传统数据库的结构化查询API。 通过Spark SQL,我们可以使用标准的SQL查询语言来查询和操作DataFrames中的数据。Spark SQL支持常见的SQL操作,如SELECT、JOIN、GROUP BY等,还支持用户自定义函数和聚合函数的定义。这使得开发人员可以使用熟悉的SQL语法来处理和分析数据,无需编写复杂的MapReduce或Spark程序。 除了SQL查询,Spark SQL还提供了用于将DataFrames转换为RDD的接口,以及将RDD转换为DataFrames的接口。这使得在需要深度定制数据处理逻辑时可以灵活地切换和使用两者之间的API。 总之,Spark SQL是一个强大而灵活的数据处理工具,它通过提供SQL查询和集成的方式,使得在Spark中可以方便地处理和分析结构化数据。它不仅提供了与传统数据库类似的性能和优化能力,还提供了与Spark的其他组件(如MLlib和GraphX)的无缝集成,使得在Spark平台上进行大规模数据处理变得更加简单和高效。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值