SpringBatch中使用分区及多线程性能比较

本文探讨了在SpringBatch中,使用多线程与分区策略处理大量数据的性能比较。通过测试,两种方案在处理200万条数据时,时间差距不大。当线程池设置为50个时,直接使用多线程的方式比10个分区的方式稍快。此外,文章提到了在分区策略中,初始化data_index字段的时间成本也是一个考虑因素。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 表结构说明:借据表(测试之前批量写入了200万数据);借据备份表1(使用多线程处理);借据备份表2(使用分区处理)
CREATE TABLE `t_batch_duebill` (
  `duebillno` char(32) NOT NULL COMMENT '借据号',
  `balance` decimal(16,2) NOT NULL DEFAULT '0.00' COMMENT '剩余本金',
  `payoff_flag` char(3) NOT NULL DEFAULT 'WJQ' COMMENT '结清标志:WJQ 未结清; YJQ 已结清',
  `interest` decimal(16,2) NOT NULL DEFAULT '0.00' COMMENT '当前利息',
  `data_index` int(11) DEFAULT NULL COMMENT '当前处理的下标',
  PRIMARY KEY (`duebillno`),
  UNIQUE KEY `data_index_unique` (`data_index`)
) ENGINE=InnoDB DEFAULT CHARSET=latin1 COMMENT='测试-借据表';

CREATE TABLE `t_batch_duebill_bak1` (
  `duebillno` char(32) NOT NULL COMMENT '借据号',
  PRIMARY KEY (`duebillno`)
) ENGINE=InnoDB DEFAULT CHARSET=latin1 COMMENT='借据表备份表1';

CREATE TABLE `t_batch_duebill_bak2` (
  `duebillno` char(32) NOT NULL COMMENT '借据号',
  PRIMARY KEY (`duebillno`)
) ENGINE=InnoDB DEFAULT CHARSET=latin1 COMMENT='借据表备份表2';
  1. 测试说明:
    将借据表中的数据写入到2个备份表中:
    考虑到线程安全问题,写入的备份表都只有一个借据编号主键,如果使用非安全的读(如JdbcCursorItemReader )将可能会造成主键冲突,所以2种方案都选用了JdbcPagingItemReader 线程安全的读分页(每页2000条)写入频率为10000条一提交
    第一种方案使用多线程读写:直接从借据表t_batch_duebill中读取数据
    第二种方案使用分区读写:
    1、首先需要把借据表t_batch_duebill的data_index字段从1开始更新(这步不在程序中体现,手动通过SQL处理)
    2、查询出借据表t_batch_duebill中总记录数,根据传入的分区数,计算每个分区需要处理多少数据(总数/分区数)
  2. 测试结果:
    第一种方案跟第二种方案测试结果如下:
    1、[77293]ms(读取[2000000]条,写入[2000000]条, 跳过[0]数据)
    2、[81835]ms(读取[2000000]条,写入[2000000]条, 跳过[0]数据)
    3、通过多次反复测试结果来看,这2种方案时间差距不大,而且如果线程池初始线程为50个的话,都用这个线程池,第二种方案使用10个分区的话第一种方案稍微快点(毕竟第一种方案是直接使用全部50个线程,而第二种方案中每个分区使用一个线程处理,只使用了10个线程)
    4、还忽略了一个问题,就是第二种方案中第一个步骤需要将data_index字段从1开始标号,这个时间如果用SQL处理的话大概是10-30秒,如果用存储过程游标实现,时间达到了惊人的4分10秒(可能是我的SQL水平太弱)
  3. 代码
    1、配置文件(使用spring boot-1.5.4) application.yml 启动文件
management:
  health:
    zookeeper:
      enabled: true
server:
  port: 8080
  context-path: /

security:
  basic:
    enabled: false
logging:
  file: partition.log
  level: info
  path: /Users/xulong/logs/partition
spring:
  session:
    store-type: none
  cloud:
    zookeeper:
      enabled: false
  batch:
    initializer:
      enabled: false
    job:
      enabled: false
  druid:
    username: root
    password: root
    min-idle: 5
    max-wait: 6000
    max-active: 200
    initial-size: 5
    test-on-borrow: false
    test-while-idle: true
    test-on-return: false
    filters: stat,wall,logback
    pool-prepared-statements: true
    min-evictable-idle-time-millis: 300000
    time-between-eviction-runs-millis: 60000
    max-pool-prepared-statement-per-connection-size: 20
    connection-properties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000
    db-url: jdbc:mysql://localhost:3306/batch?useUnicode=true&characterEncoding=utf-8&useSSL=true

pom.xml 文件

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.csii.loan.batch</groupId>
    <artifactId>partition</artifactId>
    <version>1.0.0</version>
    <packaging>jar</packaging>

    <name>partition</name>
    <description>分区测试</description>

    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>1.5.4.RELEASE</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>

    <properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
        <java.version>1.8</java.version>
        <!--<spring-cloud.version>Dalston.SR1</spring-cloud.version>-->
    </properties>

    <dependencies>
        <dependency>
            <groupId>org.apache.commons</groupId>
            <artifactId>commons-lang3</artifactId>
            <version>3.3.2</version>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-aop</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-batch</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-cache</artifactId>
        </dependency>
        <!--<dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-zookeeper-config</artifactId>
        </dependency>-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-integration</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-jdbc</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-security</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.session</groupId>
            <artifactId>spring-session</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>

        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-devtools</artifactId>
            <scope>runtime</scope>
        </dependency>
        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <scope>runtime</scope>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-configuration-processor</artifactId>
            <optional>true</optional>
        </dependency>
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>druid</artifactId>
            <version>1.0.29</version>
        </dependency>
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>fastjson</artifactId>
            <version>1.2.30</version>
        </dependency>
    </dependencies>

    <!--<dependencyManagement>
        <dependencies>
            <dependency>
                <groupId>org.springframework.cloud</groupId>
                <artifactId>spring-cloud-dependencies</artifactId>
                <version>${spring-cloud.version}</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
        </dependencies>
    </dependencyManagement>-->

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
            </plugin>
        </plugins>
    </build>

</project>

classpath:batch/applicationContext.xml

<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
       xmlns:batch="http://www.springframework.org/schema/batch"
       xsi:schemaLocation="http://www.springframework.org/schema/beans
        http://www.springframework.org/schema/beans/spring-beans.xsd


        http://www.springframework.org/schema/batch
        http://www.springframework.org/schema/batch/spring-batch.xsd">
<think>嗯,用户问的是Spring Batch中chunk加分区的情况下线程设置多少合适。首先我需要回忆一下Spring Batch的基本概念。Chunk处理是分块处理数据,而分区则是将数据分成多个部分并行处理。线程数的设置对性能有很大影响,但具体怎么确定呢? 首先,可能要考虑的因素包括数据量、每个分区的处理时间、系统资源比如CPU核心数。如果线程数设置过多,可能会导致资源竞争,反而降低性能。但设置太少又不能充分利用资源。 用户可能是在处理大数据量的任务,想要优化处理时间。他们可能已经实现了分区,但不确定如何配置线程数以达到最佳效果。可能需要解释线程数设置的原则,比如根据CPU核心数调整,或者根据IO和计算密集型的区别。 另外,Spring Batch中的分区通常使用TaskExecutorPartitionHandler,这里线程池的大小配置是关键。需要提到如何配置这个线程池,比如使用ThreadPoolTaskExecutor,并设置corePoolSize和maxPoolSize。 还要注意避免常见错误,比如线程数超过数据库连接池的最大连接数,导致等待数据库连接,反而影响性能。或者分区数量与线程数不匹配,导致有的线程空闲。 可能还需要给出一些实际例子,比如CPU密集型任务建议线程数为核心数+1,IO密集型则可能需要更多,但具体还要测试调整。建议用户进行基准测试,逐步调整线程数,监控系统资源使用情况,找到最优配置。 总结下来,回答需要分步骤,先讲理论上的考虑因素,再结合Spring Batch的具体配置,最后给出建议的最佳实践和注意事项。这样用户可以根据自己的实际情况调整,而不是给出一个固定的数值。</think>在Spring Batch中,chunk+分区模式下的线程设置需要综合考虑以下因素: 一、核心原则 1. CPU核数基准 - 建议初始值:CPU逻辑核心数 ±2 - 公式参考:$$线程数 ≈ CPU核数 \times (1 + 等待时间/计算时间)$$ - IO密集型:可适当增加(如核数×2) - CPU密集型:建议≤核数 2. 分区数量匹配 - 理想情况:线程数 = 分区数量 - 动态调整:当分区数远大于CPU核数时,建议设置线程数=核数 二、Spring Batch配置示例 ```java @Bean public TaskExecutor taskExecutor() { ThreadPoolTaskExecutor executor = new ThreadPoolTaskExecutor(); executor.setCorePoolSize(4); // 常驻线程数(建议=CPU核数) executor.setMaxPoolSize(8); // 最大扩展线程数(建议≤核数×2) executor.setQueueCapacity(0); // 禁用队列,直接创建新线程 return executor; } @Bean public PartitionHandler partitionHandler() { TaskExecutorPartitionHandler handler = new TaskExecutorPartitionHandler(); handler.setTaskExecutor(taskExecutor()); handler.setGridSize(8); // 分区数量 return handler; } ``` 三、优化建议 1. 监控指标 - CPU利用率:保持70-80% - 内存使用:避免频繁GC - 磁盘IO:监控等待时间 - 数据库连接:确保连接池足够 2. 典型场景 - 文件处理:线程数=核数+1 - 数据库读写:建议≤(数据库连接池大小 / 2) - 混合型任务:从核数开始逐步调优 四、注意事项 1. 避免过度分配线程导致: - 上下文切换开销(计算公式):$$切换开销 ≈ 线程数 \times 切换时间$$ - 内存争用 - 数据库锁竞争 2. 特殊限制 - 非线程安全组件:需要同步时减少线程数 - 事务管理器:确保支持多线程 - 共享资源:如文件写入需加锁 建议通过JMeter/Grafana进行压力测试,观察不同线程数下的吞吐量和资源消耗曲线,找到最优解。通常从CPU核数开始测试,每次±20%调整,直到达到性能拐点。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值