小伙伴们是不是偶尔会遇见超大的表,几百万、上千万行的数据,查询或是导出各种卡顿,服务器现在都是十核上百核心了,内存也轻轻松松到几十g上百g了。如果使用并行来用好机器的实力,跑起来,快起来。使用并行查询将执行时间大大缩短,在什么场景上可以使用呢,有啥要规避的。
一、Parallel并行
1. 技术本质
通过任务分解-并行执行-结果合并流程(QC进程+PX Slaves架构),将单进程任务拆分为多进程并发处理,实现近乎线性的性能扩展
2. 适用场景
| 类型 |
举例 |
性能提升依据 |
|
| OLAP查询 |
亿级表全表扫描、多表JOIN |
并行扫描使多线程查询耗时降至串行 |
|
| 批量DML |
千万级数据UPDATE/INSERT |
PDML通过并行写入减少事务提交次数 |
|
| 对象维护 |
大表在线重定义、索引创建 |
并行建索引速度提升 |
|
| 数据迁移 |
Data Pump导出TB级数据 |
PARALLEL参数加速RAC集群资源利用 |
规避的场景:
高频OLTP事务(行级锁冲突)、含触发器依赖操作、资源受限(CPU/I/O 瓶颈)系统开了会更卡。
二、实践脚本
1. 创建测试表(千万行数据)真实的医疗和工业生产,大量的这样的表。
ALTER SESSION ENABLE PARALLEL DML;
ALTER SESSION FORCE PARALLEL QUERY PARALLEL 32;
ALTER TABLE target_table NOLOGGING; -- 减少Redo日志
ALTER INDEX idx_parallel REBUILD PARALLEL 32; -- 完成后并行重建索引
-- 创建大表(2千万行)19c环境,sql中的connect by功能太香了速度快,
--然而1亿条的时候直接ORA-300009,32C/128G,SGA=64G
-- 启用并行 DML 并设置并行度(推荐 DOP = CPU 核心数 × 0.75)
ALTER SESSION ENABLE PARALLEL DML;
ALTER SESSION FORCE PARALLEL QUERY PARALLEL 24;
ALTER SESSION FORCE PARALLEL DDL PARALLEL 24;
-- 创建表(NOLOGGING + PARALLEL + 直接路径插入)
CREATE TABLE sales_data
PARALLEL 32
NOLOGGING
AS
SELECT /*+ APPEND PARALLEL(24) */
ROWNUM AS id,
TRUNC(DBMS_RANDOM.VALUE(1,1000)) AS product_id,
TRUNC(SYSDATE - DBMS_RANDOM.VALUE(1,3650)) AS sale_date,
ROUND(DBMS_RANDOM.VALUE(10,5000), 2) AS amount
FROM DUAL
CONNECT BY LEVEL <= 20000000;
-- 恢复表属性(避免后续操作继承并行设置)
ALTER TABLE sales_data NOPARALLEL;
ALTER TABLE sales_data LOGGING;
--
----实际运行
[oracle@test19:/home/oracle]# sqlplus / as sysdba
SQL*Plus: Release 19.0.0.

最低0.47元/天 解锁文章
864

被折叠的 条评论
为什么被折叠?



