Spark处理json数据(二)

基于上一篇:Spark处理json数据 的实战应用

一、要处理的 json 文件

【这种json文件可以是通过 fastJson处理后要分析的数据(json里面套json)】

op.log

1593136280858|{"cm":{"ln":"-55.0","sv":"V2.9.6","os":"8.0.4","g":"C6816QZ0@gmail.com","mid":"489","nw":"3G","l":"es","vc":"4","hw":"640*960","ar":"MX","uid":"489","t":"1593123253541","la":"5.2","md":"sumsung-18","vn":"1.3.4","ba":"Sumsung","sr":"I"},"ap":"app","et":[{"ett":"1593050051366","en":"loading","kv":{"extend2":"","loading_time":"14","action":"3","extend1":"","type":"2","type1":"201","loading_way":"1"}},{"ett":"1593108791764","en":"ad","kv":{"activityId":"1","displayMills":"78522","entry":"1","action":"1","contentType":"0"}},{"ett":"1593111271266","en":"notification","kv":{"ap_time":"1593097087883","action":"1","type":"1","content":""}},{"ett":"1593066033562","en":"active_background","kv":{"active_source":"3"}},{"ett":"1593135644347","en":"comment","kv":{"p_comment_id":1,"addtime":"1593097573725","praise_count":973,"other_id":5,"comment_id":9,"reply_count":40,"userid":7,"content":"辑赤蹲慰鸽抿肘捎"}}]}
1593136280858|{"cm":{"ln":"-114.9","sv":"V2.7.8","os":"8.0.4","g":"NW0S962J@gmail.com","mid":"490","nw":"3G","l":"pt","vc":"8","hw":"640*1136","ar":"MX","uid":"490","t":"1593121224789","la":"-44.4","md":"Huawei-8","vn":"1.0.1","ba":"Huawei","sr":"O"},"ap":"app","et":[{"ett":"1593063223807","en":"loading","kv":{"extend2":"","loading_time":"0","action":"3","extend1":"","type":"1","type1":"102","loading_way":"1"}},{"ett":"1593095105466","en":"ad","kv":{"activityId":"1","displayMills":"1966","entry":"3","action":"2","contentType":"0"}},{"ett":"1593051718208","en":"notification","kv":{"ap_time":"1593095336265","action":"2","type":"3","content":""}},{"ett":"1593100021275","en":"comment","kv":{"p_comment_id":4,"addtime":"1593098946009","praise_count":220,"other_id":4,"comment_id":9,"reply_count":151,"userid":4,"content":"抄应螟皮釉倔掉汉蛋蕾街羡晶"}},{"ett":"1593105344120","en":"praise","kv":{"target_id":9,"id":7,"type":1,"add_time":"1593098545976","userid":8}}]}

把数据放入 :json在线解析,可以看到

在这里插入图片描述

二、处理的过程

注意:这里我的spark-core和spark-sql 版本都是2.4.7,有些低的版本下面代码会报错
原因:之前低版本的不支持 from_json 函数里面放 ArrayType 类型】

1、全部代码

import org.apache.spark.sql.functions._
import org.apache.spark.sql.types._
import org.apache.spark.sql.SparkSession
import org.apache.spark.{SparkConf, SparkContext}

object Fsp {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local[*]").setAppName("11")
    val sc = SparkContext.getOrCreate(conf)
    val spark = new SparkSession.Builder().config(conf).getOrCreate()
    import spark.implicits._

    val rdd = sc.textFile("in/op.log")
    val jsonRdd = rdd.map(x=>x.split('|')).map(x=>(x(0),x(1))).map(x=>{
      x._2.replaceFirst("\\{","{\"id\":\""+x._1+"\"," )
    })

    /*原始数据*/
    val jsonDF = jsonRdd.toDF()

//    jsonDF.printSchema()
//    jsonDF.show(false)

    /*先分出大类*/
    val jsonDF1 = jsonDF.select(
      get_json_object($"value", "$.id").as("id"),
      get_json_object($"value", "$.cm").as("cm"),
      get_json_object($"value", "$.ap").as("ap"),
      get_json_object($"value", "$.et").as("et"))

//    jsonDF1.printSchema()
//    jsonDF1.show(false)

    /*再将cm 展开*/
    val jsonDF2 = jsonDF1.select($"id", $"ap",
      get_json_object($"cm", "$.ln").as("ln"),
      get_json_object($"cm", "$.sv").as("sv"),
      get_json_object($"cm", "$.os").as("os"),
      get_json_object($"cm", "$.g").as("g"),
      get_json_object($"cm", "$.mid").as("mid"),
      get_json_object($"cm", "$.nw").as("nw"),
      get_json_object($"cm", "$.l").as("l"),
      get_json_object($"cm", "$.vc").as("vc"),
      get_json_object($"cm", "$.hw").as("hw"),
      get_json_object($"cm", "$.ar").as("ar"),
      get_json_object($"cm", "$.uid").as("uid"),
      get_json_object($"cm", "$.t").as("t"),
      get_json_object($"cm", "$.la").as("la"),
      get_json_object($"cm", "$.md").as("md"),
      get_json_object($"cm", "$.vn").as("vn"),
      get_json_object($"cm", "$.ba").as("ba"),
      get_json_object($"cm", "$.sr").as("sr"),
      $"et"       //由于 et 每个组结构都相同,所以采用 from_json 函数处理更好
    )

//    jsonDF2.printSchema()
//    jsonDF2.show(false)


    val jsonDF3 = jsonDF2.select($"id", $"ap", $"ln", $"sv", $"os", $"g", $"mid", $"nw", $"l", $"vc", $"hw", $"ar", $"uid", $"t", $"la", $"md", $"vn", $"ba", $"sr",
      from_json($"et", ArrayType(StructType(StructField("ett", StringType) :: StructField("en", StringType) :: StructField("kv", StringType) :: Nil))).as("events")
    )

//    jsonDF3.printSchema()
//    jsonDF3.show(false)

    val jsonDF4 = jsonDF3.select($"id", $"ap", $"ln", $"sv", $"os", $"g", $"mid", $"nw", $"l", $"vc", $"hw", $"ar", $"uid", $"t", $"la", $"md", $"vn", $"ba", $"sr",
      explode($"events").as("events")
    )

//    jsonDF4.printSchema()
//    jsonDF4.show(false)

    val jsonDF5 = jsonDF4.select($"id", $"ap", $"ln", $"sv", $"os", $"g", $"mid", $"nw", $"l", $"vc", $"hw", $"ar", $"uid", $"t", $"la", $"md", $"vn", $"ba", $"sr",
    $"events.ett",$"events.en",$"events.kv")

    jsonDF5.printSchema()
    jsonDF5.show(false)
  }
}

2、代码分析过程

1、首先加载数据

你也可以上传至HDFS,从其上面读取

val rdd = sc.textFile("in/op.log")

2、初步处理

给电话号加一个字段 id ,并且放入json的{}里,使得整体统一,方便后序处理

val jsonRdd = rdd.map(x=>x.split('|')).map(x=>(x(0),x(1))).map(x=>{
      x._2.replaceFirst("\\{","{\"id\":\""+x._1+"\"," )
    })

3、转化成DataFrame

val jsonDF = jsonRdd.toDF()

4、利用 get_json_object 函数初步分解 json

val jsonDF1 = jsonDF.select(
      get_json_object($"value", "$.id").as("id"),
      get_json_object($"value", "$.cm").as("cm"),
      get_json_object($"value", "$.ap").as("ap"),
      get_json_object($"value", "$.et").as("et"))

在这里插入图片描述

5、将 cm 展开

我们看到 cm 那一列还包含一个json,所以我们继续用 get_json_object来处理,et 虽然也有json,但是不同于它,所以et 那列先不处理

val jsonDF2 = jsonDF1.select($"id", $"ap",
      get_json_object($"cm", "$.ln").as("ln"),
      get_json_object($"cm", "$.sv").as("sv"),
      get_json_object($"cm", "$.os").as("os"),
      get_json_object($"cm", "$.g").as("g"),
      get_json_object($"cm", "$.mid").as("mid"),
      get_json_object($"cm", "$.nw").as("nw"),
      get_json_object($"cm", "$.l").as("l"),
      get_json_object($"cm", "$.vc").as("vc"),
      get_json_object($"cm", "$.hw").as("hw"),
      get_json_object($"cm", "$.ar").as("ar"),
      get_json_object($"cm", "$.uid").as("uid"),
      get_json_object($"cm", "$.t").as("t"),
      get_json_object($"cm", "$.la").as("la"),
      get_json_object($"cm", "$.md").as("md"),
      get_json_object($"cm", "$.vn").as("vn"),
      get_json_object($"cm", "$.ba").as("ba"),
      get_json_object($"cm", "$.sr").as("sr"),
      $"et"       //由于 et 每个组结构都相同,所以采用 from_json 函数处理更好
    )

在这里插入图片描述

6、现在处理 et

我们看到et 这里的数据比较统一,每一个object都包含:ett,en,kv,所以换一个更合适的函数,from_json,按照固定格式进行解析,指定好有几个字段,什么类型,就不用像 get_json_object 函数一个一个写了
在这里插入图片描述

val jsonDF3 = jsonDF2.select($"id", $"ap", $"ln", $"sv", $"os", $"g", $"mid", $"nw", $"l", $"vc", $"hw", $"ar", $"uid", $"t", $"la", $"md", $"vn", $"ba", $"sr",
      from_json($"et", ArrayType(StructType(StructField("ett", StringType) :: StructField("en", StringType) :: StructField("kv", StringType) :: Nil))).as("events")
    )

注意看表结构
在这里插入图片描述
7、继续处理et

使用explode 函数处理 et

val jsonDF4 = jsonDF3.select($"id", $"ap", $"ln", $"sv", $"os", $"g", $"mid", $"nw", $"l", $"vc", $"hw", $"ar", $"uid", $"t", $"la", $"md", $"vn", $"ba", $"sr",
      explode($"events").as("events")
    )

注意看表结构
在这里插入图片描述
8、拆分 et

val jsonDF5 = jsonDF4.select($"id", $"ap", $"ln", $"sv", $"os", $"g", $"mid", $"nw", $"l", $"vc", $"hw", $"ar", $"uid", $"t", $"la", $"md", $"vn", $"ba", $"sr",
    $"events.ett",$"events.en",$"events.kv")

在这里插入图片描述
这就是最终拆分的结果,虽然kv 那一列还包含json 数据,但用户可以通过自定义选择某个字段进行拆分

### 回答1: 使用Excel可以打开JSON文件,但是需要手动进行数据清洗和转换,不适合处理大量的JSON数据。 Python可以使用json库来读取和处理JSON数据,可以进行数据清洗、转换、筛选等操作。同时,Python还可以使用pandas库来进行数据分析和可视化。 Hive可以使用JSON SerDe来读取和处理JSON数据,可以进行数据清洗、转换、筛选等操作。同时,Hive还可以使用HQL语言进行数据分析和查询。 Spark可以使用Spark SQL来读取和处理JSON数据,可以进行数据清洗、转换、筛选等操作。同时,Spark还可以使用Spark MLlib来进行数据分析和机器学习。 ### 回答2: 在现如今大数据时代,我们面临着大量的数据存储和处理问题。而其中处理JSON数据就是我们最常见的需求之一。为此,我们现在可以使用几种不同的工具进行JSON数据处理。其中,最流行的四种工具包括Excel、Python、Hive和Spark。 首先,“Excel”是一种非常经典的电子表格软件,对于JSON数据处理也可以相当的有用。用户可以选择将JSON数据转换成CSV格式或者Excel的标准格式,然后使用Excel进行数据处理。这种方式的优点在于易于上手,而且操作简单。但是,对于大规模数据处理,Excel的速度会变慢。 其次,“Python”是一种高级编程语言,经常用于大数据处理和分析。Python实现JSON数据处理可以使用多种库如json库、pandas库和numpy库等。这样可以将JSON数据转换为Python可操控的数据结构,然后进行后续的数据处理和分析。Python对于JSON数据处理的效率很高,可以应对大规模数据处理。 然后,“Hive”是一个基于Hadoop的数据仓库工具。它是一种开源的分布式数据存储和处理解决方案,可以用来管理大规模数据。Hive的强项是可伸缩性和性能。它可以在大规模数据中进行JSON文件的逐行处理,实现数据挖掘和分析。 最后,“Spark”是一个Apache基金会的大数据计算框架。它基于内存运行,强调处理大规模数据的速度和效率。Spark的优点在于它可以通过多种语言如Python、Java和Scala进行数据处理,同时它也提供了丰富的API和工具库。使用Spark可以将JSON数据进行处理,支持复杂的分析和计算。 总之,以上四种工具都可以用来处理JSON数据,并且都有各自的优缺点。用户可以根据需求和要求选择合适的工具。对于大规模数据处理,需要使用高效的工具如Python、Hive和Spark等。如果数据量不大,Excel亦可胜任。 ### 回答3: 在现今的大数据时代,处理Json数据是非常常见的任务,而Excel、Python、Hive以及Spark都是处理Json数据的常见工具。 Excel是众所周知的数据分析软件,它可以读取Json格式的数据并进行分析。可以通过Excel中的“数据”选项卡,在“来自文本/ CSV”、“来自网页”、“来自其他来源”三个选项中选择“来自文本/ CSV”,导入Json文件,然后对数据进行排序、筛选、图表制作等操作。 Python是专业的编程语言,在对Json数据处理方面拥有非常强大的能力。Python可以使用Json模块进行读取、解析、转换和序列化Json数据,还可以使用第三方库如pandas、numpy、matplotlib等进一步进行数据处理和可视化。 Hive是一个数据仓库工具,可以对半结构化和非结构化数据进行复杂的ETL操作。Hive支持处理Json格式的数据,可以使用通用的语句如SELECT、INSERT等进行查询和操作。对于较大的Json文件,可以使用Hive的分区技术进行数据分区,从而提高查询效率。 Spark是目前最火的大数据处理框架,支持快速、高效的处理Json数据Spark提供了Json格式文件的读写API,同时还提供了专门用于处理Json数据的函数库。Spark的强大并行处理能力可以让用户处理海量的Json数据,并在分布式环境下快速进行计算和分析。 总之,Excel、Python、Hive和Spark都是常见的处理Json数据的工具,各有其优势。用户可以根据不同的需求和数据规模,选择不同的工具进行处理
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值