使用POI导入Excel(xls)数据性能速度优化

本文分享了提高Excel数据导入效率的方法,包括使用easyexcel替代POI,减少数据库交互,利用多线程与批量插入技术,以及合理使用线程池。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

开发中经常使用POI进行数据的导入,固定的Excel模板将数据导入到数据库中,可是经常由于数据量大而导致速度过慢,接口响应过长,影响用户体验,所以适当的优化来提高响应速度是必然的。

1. 使用更为可靠的轮子。

当然了,这条说了好像是废话,我的意思是,如果可以,考虑使用阿里的easyexcel来替换掉传统的POI,可以有效的避免内存溢出的问题。如果原有业务代码较为冗余或者不易修改,这条可以忽略。

2. 避免频繁的数据库交互。

我们在解析Excel的每行数据的时候,有时候可能会要对Excel的某个单元格数据进行查重,或者某种交互数据库的操作,但是如果Excel行数少的话并没有什么影响,如果多呢,很影响效率,所以如果可以,我们尽可能的不要去频繁的数据库交互,我们可以在解析之前将比对数据查出来集合,在代码逻辑中进行校验,来抛去频繁建立数据库链接的弊端,当然,我们也可以在查询出的List集合时候,将其使用JDK1.8的特性,toMap()转化为Map,比对字段作为Key,使用contants比对,这样就可以使用空间换取时间,也可以大大的提高效率。

3. 如果数据量过大,可以考虑使用多线程。

如果数据量过于庞大,串行逻辑根本解决不了问题的时候,可以考虑使用线程池,引入适当的线程来并行解决问题。当然了要考虑服务器压力等,也就是说线程并不是开的越多越好,而且尽量使用线程池来解决问题。当然了,如果可以不适用,尽量不要使用多线程,因为线程确实很宝贵,没有必要开的地方,真的没有必要。

4. 插入数据的时候,千万不要单条插入,一定要使用批量插入。

在解析完成Excel单行的时候,往往大多时候,都是直接将这行数据封装成dto然后直接insert到数据库中,当然这样是可以的,而且代码看着很有逻辑性,一条一解析后插入,看似没什么毛病,数据量小的话貌似没什么影响。但是数据量大的话,就很可怕。十分影响效率。所以这时候,我们就需要考虑批量插入来解决问题。

也就是说,当我们在解析完成每行表格的时候,不要急着说插入数据库,我们可以将其封装到一个List集合中,然后再考虑批量插入。也就是说,我们有一个100行的Excel,再解析完成后,存入到集合,这样我们可以得到一个存有100个对象的List集合,然后我们就可以使用批量插入,Mybatis的foreach完全可以,这样就可以批量插入到数据库,大大提高效率。当然有时候你可能会说,我不是单表插入,我可能是多表插入,我需要前一个表的主键id来放入另一个表作为一个字段,这个我么可以使用Mybatis的关键字  useGeneratedKeys 来解决问题,

<insert id="insertBatchIds" useGeneratedKeys="true" keyProperty="id">
    insert into t_user_score(user_id,score,created_at) values
    <foreach collection="list" item="obj" separator=",">
        (#{obj.userId}, #{obj.score}, now())
    </foreach>
</insert>

这样,当我们批量插入数据以后,id也会自动封装到集合中的每一个对象,提供给我们使用,完美的解决了问题。

目前处理Excel的开源javaAPI主要有两种,一是Jxl(Java Excel API),Jxl只支持Excel2003以下的版本。另外一种是Apache的Jakarta POI,相比于Jxl,POI对微软办公文档的支持更加强大,但是它使用复杂,上手慢。POI可支持更高的Excel版本2007。对Excel读取POI有两种模式,一是用户模式,这种方式同Jxl的使用很类似,使用简单,都是将文件一次性读到内存,文件小的时候,没有什么问题,当文件大的时候,就会出现OutOfMemory的内存溢出问题。第二种是事件驱动模式,拿Excel2007来说,其内容采用XML的格式来存储,所以处理excel就是解析XML,而目前使用事件驱动模式解析XML的API是SAX(Simple API for XML),这种模型在读取XML文档时,并没有将整个文档读入内存,而是按顺序将整个文档解析完,在解析过程中,会主动产生事件交给程序中相应的处理函数来处理当前内容。因此这种方式对系统资源要求不高,可以处理海量数据。笔者曾经做过测试,这种方法处理一千万条,每条五列的数据花费大约11分钟。可见处理海量数据的文件事件驱动是一个很好的方式。而本文中用到的AbstractExcel2003Reader、AbstractExcel2007Reader对Excel读取都是采用这种POI的事件驱动模式。至于Excel的写操作,对较高版本的Excel2007,POI提供了很好的支持,主要流程是第一步构建工作薄和电子表格对象,第二步在一个流中构建文本文件,第三步使用流中产生的数据替换模板中的电子表格。这种方式也可以处理海量数据文件。AbstractExcel2007Writer就是使用这种方式进行写操作。对于写入较低版本的Excel2003,POI使用了用户模式来处理,就是将整个文档加载进内存,如果数据量大的话就会出现内存溢出的问题,Excel2003Writer就是使用这种方式。据笔者的测试,如果数据量大于3万条,每条8列的话,就会报OutOfMemory的错误。Excel2003中每个电子表格的记录数必须在65536以下,否则就会发生异常。目前还没有好的解决方案,建议对于海量数据写入操作,尽量使用Excel2007。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值