Stream 大数据量List分批处理 java8

本文介绍如何将大数据量的List进行分批处理的方法,包括使用Java Stream API、Google Guava和Apache Commons Collections等工具来实现高效的数据批量处理。

数据量大的 List中,如果要操作数据库 ,可以分批次,比如一次500的数据

 public static void main(String[] args) {

        //数据模拟
        List<ReceiptMethodIdAndNameBean> paperNoList = new ArrayList();
        for (int i = 0; i < 1000; i++) {
            ReceiptMethodIdAndNameBean selectItemBean = new ReceiptMethodIdAndNameBean();
            selectItemBean.setLockboxId(String.valueOf(i));
            paperNoList.add(selectItemBean);

        }

        //一次500条
        int number = 500;
        int limit = (paperNoList.size() + number - 1) / number;
        //分成limit次发请求到数据库,in()操作时   可以把多条数据分割成多组请求
        Stream.iterate(0, n -> n + 1).limit(limit).forEach(a -> {
            //获取后面1000条中的前500条
            // 拿到这个参数的流的 (a * applyIdSelectSize)后面的数据  .limit(applyIdSelectSize)->后面数据的500条  .collect(Collectors.toList()->组成一个toList
            List<ReceiptMethodIdAndNameBean> paperEntityList = paperNoList.stream().skip(a * number).limit(number).collect(Collectors.toList());
            //doSomething();  eg:数据库操作
            //举例分批输出
            for (ReceiptMethodIdAndNameBean receiptMethodIdAndNameBean : paperEntityList) {
                System.out.println(receiptMethodIdAndNameBean.getLockboxId());
            }
            System.out.println("======================================================");
        });

    }

使用google guava对List进行分割

 public static void main(String[] args) {

            //模拟模拟
            List<Integer> listDemo = Arrays.asList(1, 2, 3, 4, 5, 6, 7);

            List<List<Integer>> partition = Lists.partition(listDemo, 3);

            partition.stream().forEach(list -> {
                System.out.println("-------------------------");
                list.stream().forEach(a -> {
                    System.out.println(a);
                });
            });
        }

使用apache common collection

List<Integer> intList = Lists.newArrayList(1, 2, 3, 4, 5, 6, 7, 8);
List<List<Integer>> subs = ListUtils.partition(intList, 3);
Java 中实现大数据量批处理有多种方法,以下是几种常见的实现方式: ### 使用循环手动批 可以通过循环将大数据集合按照指定的批次大小进行划处理。示例代码如下: ```java import java.util.ArrayList; import java.util.List; public class BatchProcessingExample { public static void main(String[] args) { List<Integer> largeData = new ArrayList<>(); // 模拟大数据量 for (int i = 0; i < 1000; i++) { largeData.add(i); } int batchSize = 100; for (int i = 0; i < largeData.size(); i += batchSize) { int toIndex = Math.min(i + batchSize, largeData.size()); List<Integer> batch = largeData.subList(i, toIndex); processBatch(batch); } } private static void processBatch(List<Integer> batch) { // 处理当前批次的数据 for (Integer data : batch) { System.out.println(data); } } } ``` 在上述代码中,首先创建了一个包含 1000 个元素的列表,然后通过循环,每次从列表中截取大小为 100 的子列表进行处理,直到处理完所有数据。 ### 使用 Java 8 Stream API Java 8 引入的 Stream API 也可以实现批处理。示例代码如下: ```java import java.util.ArrayList; import java.util.List; import java.util.stream.Collectors; import java.util.stream.IntStream; public class StreamBatchProcessingExample { public static void main(String[] args) { List<Integer> largeData = IntStream.range(0, 1000) .boxed() .collect(Collectors.toList()); int batchSize = 100; IntStream.iterate(0, i -> i + batchSize) .limit((largeData.size() + batchSize - 1) / batchSize) .forEach(i -> { List<Integer> batch = largeData.subList(i, Math.min(i + batchSize, largeData.size())); processBatch(batch); }); } private static void processBatch(List<Integer> batch) { // 处理当前批次的数据 for (Integer data : batch) { System.out.println(data); } } } ``` 这里使用 `IntStream.iterate` 生成批次的起始索引,然后根据索引截取子列表进行处理。 ### 使用第三方库 Apache Commons Collections Apache Commons Collections 提供了 `ListUtils.partition` 方法可以方便地进行列表的批。示例代码如下: ```java import org.apache.commons.collections4.ListUtils; import java.util.ArrayList; import java.util.List; public class ApacheCommonsBatchProcessingExample { public static void main(String[] args) { List<Integer> largeData = new ArrayList<>(); // 模拟大数据量 for (int i = 0; i < 1000; i++) { largeData.add(i); } int batchSize = 100; List<List<Integer>> batches = ListUtils.partition(largeData, batchSize); for (List<Integer> batch : batches) { processBatch(batch); } } private static void processBatch(List<Integer> batch) { // 处理当前批次的数据 for (Integer data : batch) { System.out.println(data); } } } ``` 使用 `ListUtils.partition` 方法将大列表划为多个指定大小的子列表,然后依次处理每个子列表。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值