昨天把大部分大量数据的表给压缩了,其中有个用户信息表约250万条客户信息,每天都要全量MERGE比较更新和插入。今早一看该过程都跑了9个小时了,一直等待enq:ts-contention事件。计划说它要执行32个小时.而其他分区压缩表也有merge过程7-8分钟就跑完了。
后来发现该BA用户使用的是STAT_TEMP临时表空间 把该用户的换成了TEMP空间就没问题了。
本文分享了一次处理大量数据表压缩过程中遇到的问题,特别是针对一个包含250万条记录的用户信息表,在进行全量MERGE操作时遭遇长时间等待enq:ts-contention事件的情况。通过调整使用的临时表空间从STAT_TEMP到TEMP,成功解决了这一问题。
昨天把大部分大量数据的表给压缩了,其中有个用户信息表约250万条客户信息,每天都要全量MERGE比较更新和插入。今早一看该过程都跑了9个小时了,一直等待enq:ts-contention事件。计划说它要执行32个小时.而其他分区压缩表也有merge过程7-8分钟就跑完了。
后来发现该BA用户使用的是STAT_TEMP临时表空间 把该用户的换成了TEMP空间就没问题了。
5万+

被折叠的 条评论
为什么被折叠?