使用bulk insert快速插入大批量数据

在Oracle 数据库中,需要插入大数据量到表中时,如一次性数据量为百万级别。通常想到的是加nologging append 等提示,提升插入数据的速度。

但还有一种方法,是从根本上改变记录的插入方式。它就是bulk insert 。

我们简单比较一下此方法和普通的插入方法的差别,主要是性能上的。在数据块层面的操作,以后再分析。

(墙内链接: http://mikixiyou.iteye.com/blog/1532688 )

首先,创建一张普通的表t1(CREATE TABLE t1 AS SELECT * FROM dba_objects ) 。

写一个存储过程,用于模拟普通的数据插入方法。

create or replace procedure test_proc is

begin

  for x in (select * from dba_objects) loop

    insert into t1

      (owner,

       object_name,

       subobject_name,

       object_id,

       data_object_id,

       object_type,

       created,

       last_ddl_time,

       timestamp,

       status,

       temporary,

       generated,

       secondary)

    values

      (x.owner,

       x.object_name,

       x.subobject_name,

       x.object_id,

       x.data_object_id,

       x.object_type,

       x.created,

       x.last_ddl_time,

       x.timestamp,

       x.status,

       x.temporary,

       x.generated,

       x.secondary);

  end loop;

  commit;

end test_proc;

/
 

 

模拟bulk insert 插入方法

create or replace procedure test_proc2(p_array_size in pls_integer default 100) is

  type array is table of dba_objects%rowtype;

  l_data array;

  cursor c is

    select * from dba_objects;

begin

  open c;

  loop

    fetch c bulk collect

      into l_data limit p_array_size; 

    forall i in 1 .. l_data.count

      insert into t1 values l_data (i); 

    exit when c%notfound;

  end loop;

  close c;

  commit;

end test_proc2;

/
 

在这个方法中,每100 条作为一个批次。

下面开始测试,过程如下:

普通方法执行一次,一致性读的数目为23947 。

 

SQL> select b.name,a.* from v$mystat a,v$statname b where a.STATISTIC#=b.STATISTIC# and b.name in ('consistent gets','physical reads')

  2  ;

 

NAME                                                                    SID STATISTIC#      VALUE

---------------------------------------------------------------- ---------- ---------- ----------

consistent gets                                                         395         50         23

physical reads                                                          395         54          0

 

SQL> execute test_proc;

 

PL/SQL procedure successfully completed

 

SQL> select b.name,a.* from v$mystat a,v$statname b where a.STATISTIC#=b.STATISTIC# and b.name in ('consistent gets','physical reads');

 

NAME                                                                    SID STATISTIC#      VALUE

---------------------------------------------------------------- ---------- ---------- ----------

consistent gets                                                         395         50      23970

physical reads                                                          395         54          0

 

SQL>

 

 

而bulk insert 致性一次,一致性读的数目为6710 。

 

SQL> select b.name,a.* from v$mystat a,v$statname b where a.STATISTIC#=b.STATISTIC# and b.name in ('consistent gets','physical reads');

 

NAME                                                                    SID STATISTIC#      VALUE

---------------------------------------------------------------- ---------- ---------- ----------

consistent gets                                                         420         50         19

physical reads                                                          420         54          0

 

SQL> execute test_proc2;

 

PL/SQL procedure successfully completed

 

SQL> select b.name,a.* from v$mystat a,v$statname b where a.STATISTIC#=b.STATISTIC# and b.name in ('consistent gets','physical reads');

 

NAME                                                                    SID STATISTIC#      VALUE

---------------------------------------------------------------- ---------- ---------- ----------

consistent gets                                                         420         50       6729

physical reads                                                          420         54          0

 

 

根据实验结果,可以证实内存读的差别还是蛮大的。

因此,在大数据量插入操作时,可以采用bulk insert 方法。

EF6 (Entity Framework 6) 是 Microsoft 提供的一个 ORM(Object-Relational Mapping)框架,用于.NET应用中数据库操作。当你需要插入大量数据时,如果直接通过 Entity Framework 进行批量插入,可能会遇到性能瓶颈,因为 EF 会为每一行数据生成单独的 SQL 语句并发送到数据库,这在数据量大的情况下效率较低。 为了优化 EF6 的大批量数据插入,你可以考虑以下几个策略: 1. **使用 `DbSet.AddRange`**:这个方法可以一次性的将多个实体实例添加到 DbContext 的 DbSet 集合中,然后一次性提交,避免频繁的 DB 操作。例如: ```csharp var entities = new List<YourEntity>(); // 添加大量实体 context.Set<YourEntity>().AddRange(entities); await context.SaveChangesAsync(); ``` 2. **启用 `BulkInsert` 或者 `BULK INSERT` 功能**:虽然 EF6 不直接支持,但可以借助第三方库如 Dapper、SqlBulkCopy 等工具来绕过 EF,直接执行 SQL BULK INSERT,速度更快。 3. **分批次插入**:如果你的数据量非常大,可以考虑将数据分成几个批次进行插入,降低内存消耗。 4. **延迟加载**:尽可能减少 DbContext 中的数据初始化,只在真正需要的时候才加载。 5. **关闭追踪**:使用 `AsNoTracking()` 或者手动设置 `ChangeTracker.IsTracking = false` 可以暂时禁用 Entity 对象的更改跟踪,提高插入速度。 6. **配置数据库连接池**:确保数据库连接的有效复用,以减少创建和销毁连接的时间。 记住,在实际优化之前,最好先对数据库性能做一些基准测试,找出瓶颈所在,再针对性地调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值