Apache POI Excel 速度相关

本文探讨了Apache POI库处理Excel的不同方式,包括usermodel、SAX和SXSSF,对比了03版与07版Excel的特性,以及大数据量处理时的性能表现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Apache POI Excel速度

POI基本概念

   1. POI针对目前存在的两种版本的Excel有不同的实现方式.而对于相同版本的Excel又分为Dom解析和Sax解析两种.而这两种在内存使用,性能各方面均有不同.

  • usermodel,它是基于DOM的文档驱动,读写都支持,基于内存的,总之就是很垃圾
  • SAX(simple API for XML)是一种XML解析的替代方法。相比于DOM,SAX是一种速度更快,更有效的方法。它逐行扫描文档,一边扫描一边解析。而且相比于DOM,SAX可以在解析文档的任意时刻停止解析,但任何事物都有其相反的一面,对于SAX来说就是操作复杂。
  • sxssf,sxssf是xssf的一个与PI兼容的流扩展,在需要生成非常大的表格时使用,堆空间有限。SXSSF通过限制对滑动窗口中的行的访问来实现其低内存占用,而xssf允许访问文档中的所有行。它你可理解为缓存流式支持,在写文件很重要。

   2.03和07版xls区别?

  • a.支持文档类型不同
    •  03版: 只支持xls类型的文档
      
    •  07版: 除了支持xls类型文档,还支持xlsx类型的文档
      
  • b.行数限制
    •  03版: 65536行、
      
    •  07版: 1048576行
      

大数据量处理

  • 03版:HSSFWorkbook(基于usermodel)
    •        优点:过程中写入缓存,不操作磁盘,最后一次性写如磁盘,速度快
      
    •        缺点:最多只能处理65536行
      
  • 07版:XSSFWorkbook(基于usermodel)
    •        优点:可以写入较大的数据
      
    •        缺点:写入数据速度非常慢,非常耗内存,也会发生内存溢出
      
  • 升级版:SXSSFWorkbook(基于sxssf)
    •          优点:可以写非常大的数据量,写入速度快,占用更少的内存
      
    •          注意:过程中会产生临时文件,需清理临时文件(.dispose())
      
    •          默认由100条记录被保存再内存中,如果超过这个数量,则最前面的数据被写入到临时文件中
      
    •          如果想自定义内存中数据的量,可以使用new SXSSFWorkbool(数量);
      
    •          它的原理很简单,用硬盘空间换内存(就像hash map用空间换时间一样)
      

三种方式数据处理测试

   @Test
    public void testCompare03(){
        Long startTime=System.currentTimeMillis();
        //1.创建一个工作簿
        Workbook workbook=new HSSFWorkbook();
        //2.创建一个工作表
        Sheet sheet=workbook.createSheet("第一个工作表");
        int rowNum=65536;
        int cellNum=10;
        for (int i = 0; i < rowNum; i++) {
            //3.创建一行
            Row row=sheet.createRow(i);
            for (int i1 = 0; i1 < cellNum; i1++) {
                //4.创建单元格
                Cell cell=row.createCell(i1);
                cell.setCellValue("你好呀"+i1);
            }
        }
        System.out.println("共耗时"+(System.currentTimeMillis()-startTime)/1000+"秒");
        //生成一张表 03版本使用xls结尾
        try {
            FileOutputStream fileOutputStream=new FileOutputStream("D:"+ File.separator+"excelTest.xls");
            workbook.write(fileOutputStream);
            fileOutputStream.close();
            Long endTime=System.currentTimeMillis();
            System.out.println("生成完毕共耗时:"+(endTime-startTime)/1000+"秒");
        } catch (Exception e) {
            e.printStackTrace();
        }
/*        共耗时0秒
        生成完毕共耗时:2秒*/
    }

  可以看到使用HSSFWorkbook测试的是65536条数据,最后一次性写入磁盘,所以速度较为快速。

    @Test
    public void testCompare07(){
        Long startTime=System.currentTimeMillis();
        //1.创建一个工作簿
        Workbook workbook=new XSSFWorkbook();
        //2.创建一个工作表
        Sheet sheet=workbook.createSheet("第一个工作表");
        int rowNum=100000;
        int cellNum=10;
        for (int i = 0; i < rowNum; i++) {
            //3.创建一行
            Row row=sheet.createRow(i);
            for (int i1 = 0; i1 < cellNum; i1++) {
                //4.创建单元格
                Cell cell=row.createCell(i1);
                cell.setCellValue("你好呀"+i1);
            }
        }
        System.out.println("共耗时"+(System.currentTimeMillis()-startTime)/1000+"秒");
        //生成一张表 07版本使用xlsx结尾
        try {
            FileOutputStream fileOutputStream=new FileOutputStream("D:"+ File.separator+"excelTest1.xlsx");
            workbook.write(fileOutputStream);
            fileOutputStream.close();
            Long endTime=System.currentTimeMillis();
            System.out.println("07版生成完毕共耗时:"+(endTime-startTime)/1000+"秒");
        } catch (Exception e) {
            e.printStackTrace();
        }
        /*共耗时19秒
         07版生成完毕共耗时:27秒*/
    }

  可以看到使用XSSFWorkbook测试的是100000条数据,非常耗内存,超过1000000条数据也会发生内存溢出。

    @Test
    public void testCompare07S(){
        Long startTime=System.currentTimeMillis();
        //1.创建一个工作簿
        Workbook workbook=new SXSSFWorkbook(100);
        //2.创建一个工作表
        Sheet sheet=workbook.createSheet("第一个工作表");
        int rowNum=100000;
        int cellNum=10;
        for (int i = 0; i < rowNum; i++) {
            //3.创建一行
            Row row=sheet.createRow(i);
            for (int i1 = 0; i1 < cellNum; i1++) {
                //4.创建单元格
                Cell cell=row.createCell(i1);
                cell.setCellValue("你好呀"+i1);
            }
        }
        System.out.println("共耗时"+(System.currentTimeMillis()-startTime)/1000+"秒");
        //生成一张表 07升级版本使用xlsx结尾
        try {
            FileOutputStream fileOutputStream=new FileOutputStream("D:"+ File.separator+"excelTest1S.xlsx");
            workbook.write(fileOutputStream);
            fileOutputStream.close();
            ((SXSSFWorkbook) workbook).dispose();//清理临时文件
            Long endTime=System.currentTimeMillis();
            System.out.println("升级版生成完毕共耗时:"+(endTime-startTime)/1000+"秒");
        } catch (Exception e) {
            e.printStackTrace();
        }
       /*        共耗时3秒
        升级版生成完毕共耗时:5秒*/
    }

  可以看到使用SXSSFWorkbook测试的是100000条数据,写数据速度快,占用更少的内存,但是过程中会产生临时文件,需及时清理。

采用原生api生成excel,都有可能会消耗大量内存,例如生成格式、合并单元格等操作。
目前处理Excel的开源javaAPI主要有两种,一是Jxl(Java Excel API),Jxl只支持Excel2003以下的版本。另外一种是Apache的Jakarta POI,相比于Jxl,POI对微软办公文档的支持更加强大,但是它使用复杂,上手慢。POI可支持更高的Excel版本2007。对Excel的读取,POI有两种模式,一是用户模式,这种方式同Jxl的使用很类似,使用简单,都是将文件一次性读到内存,文件小的时候,没有什么问题,当文件大的时候,就会出现OutOfMemory的内存溢出问题。第二种是事件驱动模式,拿Excel2007来说,其内容采用XML的格式来存储,所以处理excel就是解析XML,而目前使用事件驱动模式解析XML的API是SAX(Simple API for XML),这种模型在读取XML文档时,并没有将整个文档读入内存,而是按顺序将整个文档解析完,在解析过程中,会主动产生事件交给程序中相应的处理函数来处理当前内容。因此这种方式对系统资源要求不高,可以处理海量数据。笔者曾经做过测试,这种方法处理一千万条,每条五列的数据花费大约11分钟。可见处理海量数据的文件事件驱动是一个很好的方式。而本文中用到的AbstractExcel2003Reader、AbstractExcel2007Reader对Excel的读取都是采用这种POI的事件驱动模式。至于Excel的写操作,对较高版本的Excel2007,POI提供了很好的支持,主要流程是第一步构建工作薄和电子表格对象,第二步在一个流中构建文本文件,第三步使用流中产生的数据替换模板中的电子表格。这种方式也可以处理海量数据文件。AbstractExcel2007Writer就是使用这种方式进行写操作。对于写入较低版本的Excel2003,POI使用了用户模式来处理,就是将整个文档加载进内存,如果数据量大的话就会出现内存溢出的问题,Excel2003Writer就是使用这种方式。据笔者的测试,如果数据量大于3万条,每条8列的话,就会报OutOfMemory的错误。Excel2003中每个电子表格的记录数必须在65536以下,否则就会发生异常。目前还没有好的解决方案,建议对于海量数据写入操作,尽量使用Excel2007。
### 解决 PP-OCRv4 出现的错误 当遇到 `WARNING: The pretrained params backbone.blocks2.0.dw_conv.lab.scale not in model` 这样的警告时,这通常意味着预训练模型中的某些参数未能匹配到当前配置下的模型结构中[^2]。 对于此问题的一个有效解决方案是采用特定配置文件来适配预训练权重。具体操作方法如下: 通过指定配置文件 `ch_PP-OCRv4_det_student.yml` 并利用已有的最佳精度预训练模型 (`best_accuracy`) 来启动训练过程可以绕过上述不兼容的问题。执行命令如下所示: ```bash python3 tools/train.py -c configs/det/ch_PP-OCRv4/ch_PP-OCRv4_det_student.yml ``` 该方案不仅解决了参数缺失带来的警告,还能够继续基于高质量的预训练成果进行微调,从而提升最终检测效果。 关于蒸馏的概念,在机器学习领域内指的是将大型复杂网络(teacher 模型)的知识迁移到小型简单网络(student 模型)。这里 student 和 teacher 的关系是指两个不同规模或架构的神经网络之间的指导与被指导的关系;其中 teacher 已经经过充分训练并具有良好的性能,而 student 则试图模仿前者的行为模式以达到相似的效果但保持更高效的计算特性。 至于提到的 `Traceback` 错误信息部分,由于未提供具体的跟踪堆栈详情,难以给出针对性建议。不过一般而言,这类报错往往涉及代码逻辑错误或是环境配置不当等问题。为了更好地帮助定位和解决问题,推荐记录完整的异常日志,并仔细检查最近修改过的代码片段以及确认依赖库版本的一致性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值