spark overwrite分区覆盖导致全表覆盖问题

本文探讨了在使用Spark进行动态分区写入时遇到的问题,即覆盖特定分区却意外覆盖所有分区的情况。通过调整配置参数及采用Hive语法,成功实现了仅对目标分区的精确覆盖。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

比如我们目前有两个分区 2019-03-22 和 2019-03-23 两个分区,现在我们使用 saveAsTable 想覆盖其中一天的分区,结果却是将整个所有分区遮盖了。重建了整个目录,这明显不是我们想要的到的结果。

试过下图还是不行

set hive.exec.dynamic.partition=true; 
set hive.exec.dynamic.partition.mode=nonstrict; 

然后看到stackOverFlow上有同样问题,设置以下。但是还是没有解决。

spark.conf.set("spark.sql.sources.partitionOverwriteMode","dynamic")

用 hive 的语法来 动态overwrite 分区。完美解决

df.createOrReplaceTempView("temp_table_1");
spark.sql("""  insert overwrite table target_table partition(year,day) select name,age,sex,created_ts,updated_ts,year,day from temp_table_1 """);
	


    

 

 

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值