将一个大数据集按限制5000,分批量处理

本文介绍了一种根据数据量动态调整传输批次的方法,确保每次传输不超过预设限制,适用于不同规模的数据集。通过检查已上传记录避免重复传输。

业务需求: 每10分钟摆渡一次数据,但是有时候数据量小,有时候数据量比较大10分钟大概多的时候3-50000条,应要求每次传输的数据不得超过5000条,所以:

int limitSize = Integer.valueOf(env.getProperty("file.limit.size","5000"));
        List<PassPersonModel> resultList = this.passPersonRepository.selectAll();//获取表中数据
        List<PassPersonModel> dtoList = new ArrayList<>();
        if(resultList!=null&&!resultList.isEmpty()){
            PassPersonModel model =null;
            int resultTotal = resultList.size();
            for(int i=0;i<resultList.size();i++){
                model = resultList.get(i);
                //检查该数据是否已经被上传过
                if (!TransferCache.checkCacheName(model.getId())){
                    dtoList.add(model);
                }
            }
            logger.info("本次查询出 {} 条数据,其中有 {} 条未被打包上传!",resultTotal,dtoList.size());
        }
        int resultListSize = dtoList.size();
        if (resultListSize>limitSize){
            int part = resultListSize/limitSize;
            int loopTime = part;
            if(resultListSize%limitSize>0){
                loopTime++;
            }
            logger.info("由于本次传输数据量为 {},超过 {},因此需要分 {}批次打包上传",resultListSize,limitSize,loopTime);
            for(int i=1;i<=part;i++){
                List<PassPersonModel> passPersonModels = dtoList.subList(0, limitSize);
                logger.info("这是第 {}次打包,已完成{}/{}",i,i,loopTime);
                FileDownLoadAndZip(passPersonModels);
                passPersonModels.clear();
            }
            if(dtoList.size()>0){
                logger.info("将最后剩余的 {}条数据打包发送,已完成{}/{}",(resultListSize-part*limitSize),loopTime,loopTime);
            }
        }else {
            //小于limitSize 5000,直接发送
            FileDownLoadAndZip(dtoList);
        }

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值