从table1中导数据到table_df昨天的分区。
package com.zz.spark.dm.tag
import org.apache.spark.sql.{DataFrame, SparkSession}
import java.text.SimpleDateFormat
import java.util.{Calendar, Date}
object Demo1 {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder()
.appName("Demo1")
.master("local")
.getOrCreate()
var dt = ""
if (args.length != 0){ // 没有传递参数时,默认日期为昨天
val dateFormat: SimpleDateFormat = new SimpleDateFormat("yyyy-MM-dd")
val cal: Calendar = Calendar.getInstance()
// val today = dateFormat.format(cal.getTime()) // 今天
cal.add(Calendar.DATE, -1) // 昨天
dt = dateFormat.format(cal.getTime())
println(dt)
} else {
dt = args(0)
}
import spark.implicits._
// is_credit_loan_user_dm
spark.sql(s"insert overwrite table zz.table_df partiti

该博客展示了如何使用Scala和Spark SQL将数据从table1插入到table_df的指定日期分区。通过设置日期参数(默认为昨天),脚本实现了数据迁移操作,确保了数据的一致性和管理效率。
最低0.47元/天 解锁文章
2807

被折叠的 条评论
为什么被折叠?



