某次接到一个删除需求,研发提供的删除脚本是几千行的delete语句。
本次提供的删除语句每条删除数据量不多,直接执行也没有什么大的问题。
但是如果表的数据量很大,执行一次删除的时间较长,每条delete删除的数据量也很大的情况下,会大量占用undo空间。
处理步骤:
1、在每条delete语句后加上commit;
2、spool 生成执行日志
3、处理日志查看删除条数
1、在每条delete语句后加上commit;
sed -i "s/$/&commit;/g" delete.sql
sed -i "s/;commit;/;\ncommit;/g" delete.sql
2、spool 生成执行日志
spool delete.log;
alter session set current_schema=test;
set line 200 pagesize 9999 long 5000
@delete.sql
spool off;
3、统计生成日志中的执行数量
cat delete.log |grep deleted|awk '{print $1}'|awk '{sum += $1} END {print sum}'