6.3 Hibernate的批量处理: (6.3.1)批量插入

本文探讨了在使用Hibernate进行大规模数据批量处理时遇到的内存溢出问题,并提出了一种解决方案,即定时将Session缓存的数据刷入数据库并清空缓存。此外,文章还强调了关闭SessionFactory的二级缓存以提升性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hibernate完全以面向对象的方式来操作数据库,当程序里以面向对象的方式操作持久化对象时,将被自动转换为对数据库的操作。例如我们调用Session的delete( )方法来删除持久化对象,Hibernate将负责删除对应的数据记录;当我们执行持久化对象的setter方法时,Hibernate将自动转换为底层的update语句,修改数据库的对应记录。

现在的问题是:如果我们需要同时更新10万条记录,是不是要逐一加载10万条记录,然后依次调用setter方法------这样不仅繁琐,数据访问的性能也十分糟糕。为了面对这种批量处理的场景,Hibernate提供了批量处理的解决方案。下面分别从批量插入、批量更新和批量删除三个方面介绍如何面对这种批量处理的情形。

批量插入:

如果需要将10万条记录插入数据库,通过Hibernate可能会采用如下做法:

Transaction txt=session.beginTransaction();
for(int i=0;i<100000;i++){
User user=new User(...);
session.save(user);
}
txt.commit();
session.close();
但随着这个程序的运行,总会在某个时候运行失败,并且抛出OutOfMemoryException。这是因为Hibernate的Session持有一个必选的一级缓存,所有的User实例都将在Session级别的缓存区进行缓存的缘故。

为了解决这个问题,有个非常简单的思路:定时将Session缓存的数据刷入数据库,而不是一直在Session级别缓存。

Transaction txt=session.beginTransaction();
for(int i=0;i<100000;i++){
User user=new User(...);
session.save(user);
if(i%20==0){
session.flush();
session.clear();
}
}
txt.commit();
session.close();
上面的代码中当i%20==0时,手动将Session处缓存的数据写入数据库,并且清空Session缓存里的数据。除了要对Session级别缓存进行处理外,还应该通过如下配置来关闭SessionFactory的二级缓存:

<property name="hibernate.cache.use_second_level_cache">false</property>




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值