spark清洗离线数据

本文介绍了使用Scala和Spark来清洗40多GB的离线数据,以替代Oracle的繁琐操作。通过从HDFS读取json文件,进行URL解码处理特殊字符,然后初始化程序,读取数据库数据并存储到HashMap中,再进行JSON解析和数据清洗,最终组装成新的JSON格式数据。

最近花了半个月时间研究了一哈scala 感觉可以做的东西还是蛮多了。目前工作清洗40多G的数据很费劲(采用oracle做很费事),所有研究了spark来清洗离线数据。

废话不多说开始程序设计:

首先我想到的是输入 这里采用HDFS文件。假设我们将oracle的数据采用json格式的形式并且采用urldecode方法转换文本(因为一些特殊字符常常会导致我们的json文件读取异常,所有我这里采用转码的情况来规避这个问题---这里特殊字符和回车换行对我数据来说是合理的)类型的数据。

 主函数代码:

def main(args: Array[String]) {
  //输入文件既可以是本地linux系统文件,也可以是其它来源文件,例如HDFS
  
  init() --加载公参数据
  if (args.length == 0) {
    System.err.println("Usage: DateClean <inputfile> <outputfile&g
Spark离线数据清洗可以使用SparkSQL和DataFrame API来实现。具体步骤如下: 1.读取数据:使用SparkContext的textFile()方法读取数据文件,返回一个RDD[String]类型的对象。 2.将RDD[String]转换为DataFrame:使用SparkSession的createDataFrame()方法将RDD[String]转换为DataFrame类型的对象。 3.过滤数据:使用DataFrame API中的filter()方法过滤掉不符合条件的数据。 4.处理数据:使用DataFrame API中的各种方法对数据进行处理,例如使用withColumnRenamed()方法重命名列名,使用drop()方法删除不需要的列等。 5.保存数据:使用DataFrame API中的write()方法将处理后的数据保存到指定的文件中。 下面是一个示例代码,假设我们有一个日志文件test.log,其中每行数据由8个字段组成,字段之间使用制表符分隔: ```scala import org.apache.spark.sql.{Row, SparkSession} val spark = SparkSession.builder() .appName("Data Cleaning") .master("local[*]") .getOrCreate() // 读取数据 val linesRDD = spark.sparkContext.textFile("test.log") // 将RDD[String]转换为RDD[Row]的形式,并过滤字段数少于8的日志 val rowRDD = linesRDD.map(_.split("\t")) .filter(_.length == 8) .map(x => Row(x(0).trim, x(1).trim, x(2).trim, x(3).trim, x(4).trim, x(5).trim, x(6).trim, x(7).trim)) // 定义DataFrame的schema val schema = spark.read .option("header", "true") .option("inferSchema", "true") .csv("test.log") .schema // 将RDD[Row]转换为DataFrame val df = spark.createDataFrame(rowRDD, schema) // 对数据进行处理 val cleanedDF = df .withColumnRenamed("col1", "new_col1") .drop("col2") // 保存数据 cleanedDF.write .option("header", "true") .csv("cleaned_data") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值