【原】通过多线程分批处理派发任务

针对旧系统发放红包速度慢的问题,本文介绍了一种优化方案。通过分析原有系统的瓶颈,采用jdbcTemplate的batchUpdate方法进行批量数据库操作,并结合多线程技术,将任务分割,实现了从超时或1分钟处理时间缩短至几秒的效率提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 前言:

   前几天有其他部门人员反应派发红包很慢,经常出现504或者无响应,于是由我这边进行一个优化后,发放速度由原来的超时或者1分钟变为几秒。

  发放流程:

         活动后台导入一个xls表格,大概2W左右条,经过后台的筛选处理等逻辑后会循环调用插入数据库的代码。

   优化过程:

         分析慢的原因:

                                  1.这套系统是N年前的系统,旧的功能无人维护优化,里面大量使用了jdbcTemplate。

                                  2.发放的时候循环发放,导致要循环2W次,而且每次插入都是需要新建一个对象,然后往里面set数据,然后调用 jdbcTemplate 入库。

          优化思路 :

      1. jdbcTemplate 有个batchUpdate的api,可以通过这个api完成批处理                 

      2. 测试后发现batchUpdate还是会有瓶颈,在数据大的时候还是有点慢,是否考虑通过多线程拆分大的单元,类似于 jdk的 forkJoin,然后每个线程处理一批,最后的结果通过回调统一归并。

   代码片段:

  •  #抽取出一个公共的接口,用于调用具体的处理方法。

    

public interface ITask<T, E> {
    * @param e 传入对象
* @param params 其他辅助参数
* @return T<BR> 返回值类型
* @exception <BR>
* @since 2.0
T execute(List e, Map<String, Object> params); }
  •     #由于发放红包需要实时展示给发放人员看,所以需要有回调处理函数,可以将不同结果的线程收集起来统一给主线程返回,所以新建一个类实现 Callable。
public class HandleCallable<E> implements Callable<ResultBean> {
    private static Logger logger = LoggerFactory.getLogger(HandleCallable.class);
    // 线程名称 
    private String threadName = "";
    // 需要处理的数据
    private List<E> data;
    // 辅助参数
    private Map<String, Object> params;
    // 具体执行任务
    private ITask<ResultBean<String>, E> task;

    public HandleCallable(String threadName, List<E> data, Map<String, Object> params,
            ITask<ResultBean<String>, E> task) {
        this.threadName = threadName;
        this.data = data;
        this.params = params;
        this.task = task;
    }

    @Override
    public ResultBean<List<ResultBean<String>>> call() throws Exception {
        // 该线程中所有数据处理返回结果
        ResultBean<List<ResultBean<String>>> resultBean = ResultBean.newInstance();
        if (data != null && data.size() > 0) {
            logger.info("线程:{},共处理:{}个数据,开始处理......", threadName, data.size());
            // 返回结果集
            List<ResultBean<String>> resultList = new ArrayList<>();
            resultList.add(task.execute(data, params));
            /*resultList.add(task.execute(data, params));*/
            // 循环处理每个数据
          /*  for (int i = 0; i < data.size(); i++) {
                // 需要执行的数据
                E e = data.get(i);
                // 将数据执行结果加入到结果集中
                resultList.add(task.execute(e, params));
                logger.info("线程:{},第{}个数据,处理完成", threadName, (i + 1));
            }*/
            logger.info("线程:{},共处理:{}个数据,处理完成......", threadName, data.size());
            resultBean.setData(resultList);
            resultBean.setCode(data.size());
        }
        return resultBean;
    }

}
 
  •        #具体的处理线程的类有了,那么还需要考虑谁来切分任务,所以新建一个 线程工具类,主要业务就是切分任务,创建具体的线程个数,统一收集结果。
package com.i2p.util;

import java.util.ArrayList;
import java.util.List;
import java.util.Map;
import java.util.concurrent.CompletionService;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.ExecutorCompletionService;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;

import com.i2p.util.thread.ITask;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;



/**
 * 
 * 
 * MultiThreadUtils<BR>
 * 创建人:dd <BR>
 * 时间:2019年1月11日 14:09:38 <BR>
 * @version 2.0
 *
 */
public class MultiThreadUtils<T> {
    private static Logger logger = LoggerFactory.getLogger(MultiThreadUtils.class);

    // 线程个数,如不赋值,默认为5
    private int threadCount = 20;
    // 具体业务任务
//    private ITask<ResultBean<String>, T> task;
    // 线程池管理器
    private CompletionService<ResultBean> pool = null;

    /**
     * 
     * 初始化线程池和线程个数<BR>
     * 方法名:newInstance<BR>
     * 创建人:dd <BR>
     * 时间:2018年8月8日-下午8:22:00 <BR>
     * @param threadCount
     * @return MultiThreadUtils<BR>
     * @exception <BR>
     * @since  2.0
     */
    public static MultiThreadUtils newInstance(int threadCount) {
        MultiThreadUtils instance = new MultiThreadUtils();
        threadCount = threadCount;
        instance.setThreadCount(threadCount);

        return instance;
    }

    /**
     * 
     * 多线程分批执行list中的任务<BR>
     * 方法名:execute<BR>
     * 创建人:dd <BR>
     * 时间:2019年1月10日 09:00:24 <BR>
     * @param data  线程处理的大数据量list
     * @param params    处理数据是辅助参数传递
     * @param task        具体执行业务的任务接口
     * @return ResultBean<BR>
     * @exception <BR>
     * @since  2.0
     */
    @SuppressWarnings("rawtypes")
    public ResultBean execute(List<T> data, Map<String, Object> params, ITask<ResultBean<String>, T> task) {
        // 创建线程池
        int num = 0;
        ExecutorService threadpool = Executors.newFixedThreadPool(threadCount);
        // 根据线程池初始化线程池管理器
        pool = new ExecutorCompletionService<ResultBean>(threadpool);
        // 开始时间(ms)
        long l = System.currentTimeMillis();
        // 数据量大小
        int length = data.size();
        // 每个线程处理的数据个数
        int taskCount = length / threadCount;
        // 划分每个线程调用的数据
        for (int i = 0; i < threadCount; i++) {
            // 每个线程任务数据list
            List<T> subData = null;
            if (i == (threadCount - 1)) {
                subData = data.subList(i * taskCount, length);
            } else {
                subData = data.subList(i * taskCount, (i + 1) * taskCount);
            }
            // 将数据分配给各个线程
            HandleCallable execute = new HandleCallable<T>(String.valueOf(i), subData, params, task);
            // 将线程加入到线程池
            pool.submit(execute);
        }

        // 总的返回结果集
        List<ResultBean<String>> result = new ArrayList<>();
        for (int i = 0; i < threadCount; i++) {
            // 每个线程处理结果集
            ResultBean<List<ResultBean<String>>> threadResult;
            try {
                threadResult = pool.take().get();
                if(threadResult!=null && threadResult.getData()!=null){
                    System.out.println("======线程" + i + "执行完毕,返回结果数据:" + threadResult.getCode());
                    List<ResultBean<String>>  list =  threadResult.getData();
                    num+=threadResult.getCode();
                }
                System.out.println("每个线程处理结果集"+threadResult.getData());
                result.addAll(threadResult.getData());
            } catch (InterruptedException e) {
                e.printStackTrace();
            } catch (ExecutionException e) {
                e.printStackTrace();
            }

        }
        // 关闭线程池
        threadpool.shutdownNow();
        // 执行结束时间
        long end_l = System.currentTimeMillis();
        logger.info("总耗时:{}ms", (end_l - l));
        logger.info("总数量:{}num:", num);
        return ResultBean.newInstance().setData(num);
    }

    public int getThreadCount() {
        return threadCount;
    }

    public void setThreadCount(int threadCount) {
        this.threadCount = threadCount;
    }

}

转载于:https://www.cnblogs.com/zdd-java/p/10306194.html

def extract_dataset(): df = pd.read_csv(file_path + processed_data_filename) dummies_df = pd.get_dummies(df, columns=["model", "vendor"], sparse=True) # 删除列并保留时间序列结构 dummies_df = dummies_df.drop(columns=['datetime', 'ptype']) window_size = 7 * 24 # 7天(每小时一条记录) future_window = 3 * 24 # 未来3天 # 直接提取窗口数据(非聚合计算) def extract_raw_windows(group): windows = [] for i in range(len(group) - window_size + 1): # 提取连续7天始数据(168小时) window_data = group.iloc[i:i+window_size].drop(columns='is_fault') windows.append(window_data.values.flatten()) # 展平为特征向量 return windows # 并行提取始窗口 raw_features = Parallel(n_jobs=-1)( delayed(extract_raw_windows)(group) for _, group in dummies_df.groupby('sn') ) # 标签生成(未来3天故障标志) def generate_labels(group): labels = [] for i in range(len(group) - window_size - future_window + 1): label = group['is_fault'].iloc[ i+window_size : i+window_size+future_window ].max() labels.append(label) return labels labels = Parallel(n_jobs=-1)( delayed(generate_labels)(group) for _, group in dummies_df.groupby('sn') ) # 合并结果 X = np.vstack([item for sublist in raw_features for item in sublist]) y = np.hstack([item for sublist in labels for item in sublist]) # 仅使用一种缩放(推荐标准化) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # 输出结构优化 samples_df = pd.DataFrame(X_scaled) samples_df['label'] = y print(samples_df.head(10)) 这个代码有哪些可以优化和修改?要对进程数和使用内存量做限制
最新发布
07-15
继“Java开发微信朋友圈PC版系统-架构1.0”之后,debug这段时间日撸夜撸,终于赶在春节放假前给诸位带来了这一系统的架构2.0版本,特此分享给诸位进行学习,以掌握、巩固更多的技术栈以及项目和产品开发经验,同时也为即将到来的金三银四跳槽季做准备! 言归正传,下面仍然以问答的方式介绍下本门课程的相关内容! (1)问题一:这是一门什么样的课程? 很明显,本门课程是建立在架构1.0,即 第1门课程 的基础上发布的,包含了架构1.0的内容,即它仍然是一门项目、产品实战课,基于Spring Boot2.X + 分布式中间件开发的一款类似“新浪微博”、“QQ空间”、“微信朋友圈”PC版的互联网社交软件,包含完整的门户网前端 以及 后台系统管理端,可以说是一套相当完整的系统! (2)问题二:架构2.0融入了哪些新技术以及各自有什么作用? 本课程对应着系统架构2.0,即第2阶段,主要目标:基于架构1.0,优化系统的整体性能,实现一个真正的互联网社交产品;其中,可以学习到的技术干货非常多,包括:系统架构设计、Spring Boot2.X、缓存Redis、多线程并发编程、消息中间件RabbitMQ、全文搜索引擎Elastic Search、前后端消息实时通知WebSocket、分布式任务调度中间件Elastic Job、Http Restful编程、Http通信OKHttp3、分布式全局唯一ID、雪花算法SnowFlake、注册中心ZooKeeper、Shiro+Redis 集群Session共享、敏感词自动过滤、Java8 等等; A.  基于Elastic Search实现首页列表数据的初始化加载、首页全文检索;B.  基于缓存Redis缓存首页朋友圈“是否已点赞、收藏、关注、评论、转发”等统计数据;整合Shiro实现集群部署模式下Session共享;C.  多线程并发编程并发处理系统产生的废弃图片、文件数据;D.  基于Elastic Job切片作业调度分布式多线程清理系统产生的废弃图片;E.  基于RabbitMQ解耦同步调用的服务模块,实现服务模块之间异步通信;F.  基于WebSocket实现系统后端 与 首页前端 当前登录用户实时消息通知;G.  基于OKHttp3、Restful风格的Rest API实现ES文档、分词数据存储与检索;H.  分布式全局唯一ID 雪花算法SnowFlake实现朋友圈图片的唯一命名;I.  ZooKeeper充当Elastic Job创建的系统作业的注册中心;J.  为塑造一个健康的网络环境,对用户发的朋友圈、评论、回复内容进行敏感词过滤;K.  大量优雅的Java8  Lambda编程、Stream编程;  (3)问题三:系统运行起来有效果图看吗?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值