Hibernate完全以面向对象的方式来操作数据库,当程序里以面向对象的方式操作持久化对象时,将被自动转换为对数据库的操作。例如我们调用Session的delete( )方法来删除持久化对象,Hibernate将负责删除对应的数据记录;当我们执行持久化对象的setter方法时,Hibernate将自动转换为底层的update语句,修改数据库的对应记录。
现在的问题是:如果我们需要同时更新10万条记录,是不是要逐一加载10万条记录,然后依次调用setter方法------这样不仅繁琐,数据访问的性能也十分糟糕。为了面对这种批量处理的场景,Hibernate提供了批量处理的解决方案。下面分别从批量插入、批量更新和批量删除三个方面介绍如何面对这种批量处理的情形。
批量插入:
如果需要将10万条记录插入数据库,通过Hibernate可能会采用如下做法:
Transaction txt=session.beginTransaction();
for(int i=0;i<100000;i++){
User user=new User(...);
session.save(user);
}
txt.commit();
session.close();
但随着这个程序的运行,总会在某个时候运行失败,并且抛出OutOfMemoryException。这是因为Hibernate的Session持有一个必选的一级缓存,所有的User实例都将在Session级别的缓存区进行缓存的缘故。
为了解决这个问题,有个非常简单的思路:定时将Session缓存的数据刷入数据库,而不是一直在Session级别缓存。
Transaction txt=session.beginTransaction();
for(int i=0;i<100000;i++){
User user=new User(...);
session.save(user);
if(i%20==0){
session.flush();
session.clear();
}
}
txt.commit();
session.close();
上面的代码中当i%20==0时,手动将Session处缓存的数据写入数据库,并且清空Session缓存里的数据。除了要对Session级别缓存进行处理外,还应该通过如下配置来关闭SessionFactory的二级缓存:
<property name="hibernate.cache.use_second_level_cache">false</property>