基于消费者生产者模型,使用线程池控制发送HTTP请求的定时器

摘要:

      在业务中遇到了一种场景,在对于被请求方难以被优化的情况下,尝试通过在发送端通过线程池控制允许同时发送请求的数量,以降低直接请求服务端的压力,也要考虑请求发送失败时的重试机制;同时,需要每一次请求后的数据的集合,进行数据库的批量查询,因此使用多线程中的经典的消费者生产者模型进行控制变量,等待所有请求处理完毕后,再统一进行操作。

上干货

       先来看线程池的声明,因为考虑到,线程池满了之后,也会有需要发送请求的情况,所以使用线程池工厂管理线程池;最重要的是,当线程池满的时候,执行恰当的回绝策略,优雅的处理满线程池之后的其他请求,而不是简单的拒绝。

// 线程池size
private static int threadPoolSize = 50;

private static ThreadFactory threadFactory = new EmailTaskThreadFactory();
private static RejectedExecutionHandler rejectedHandler = new EmailTaskIgnorePolicy();
// 声明一个线程池
private static ExecutorService threadpool = new ThreadPoolExecutor(threadPoolSize, threadPoolSize,
        60L, TimeUnit.SECONDS,
        new ArrayBlockingQueue<>(threadPoolSize), threadFactory, rejectedHandler);

// 线程池工厂
public static class EmailTaskThreadFactory implements ThreadFactory{
    private static final AtomicInteger poolNumber = new AtomicInteger(1);
    private final ThreadGroup group;
    private final AtomicInteger threadNumber = new AtomicInteger(1);
    private final String namePrefix;

    EmailTaskThreadFactory(){
        SecurityManager s = System.getSecurityManager();
        group = (s != null) ? s.getThreadGroup() : Thread.currentThread().getThreadGroup();
        namePrefix = "EmailTaskThreadPool - " + poolNumber.getAndIncrement() + " - thread - ";
    }

    @Override
    public Thread newThread(Runnable r) {
        Thread t = new Thread(group, r, namePrefix + threadNumber.getAndIncrement(), 0);
        if(t.isDaemon()){
            t.setDaemon(false);
        }
        if (t.getPriority() != Thread.NORM_PRIORITY){
            t.setPriority(Thread.NORM_PRIORITY);
        }
        return t;
    }
}

public static class EmailTaskIgnorePolicy implements RejectedExecutionHandler{
    @Override
    public void rejectedExecution(Runnable r, ThreadPoolExecutor executor) {
        // 线程池满时的回绝策略
        LOGGER.error(r.toString() + "job is rejected, because the thread pool is full!");

        // 判断线程池状态,等待一段时间后,再次执行
        if(!executor.isShutdown()) {
            try {
                Thread.sleep(10L);
            } catch (InterruptedException e) {
                LOGGER.error("回绝策略执行时,等待报错: ", e);
            }
            if (executor.getQueue().size() < executor.getMaximumPoolSize()) {
                executor.execute(r);
            }
        }
    }
}

       然后,考虑使用生产者,进行HTTP请求的发送处逻辑

if(taskRejectFlag.get() > 0){
    // 等待一段时间,再去请求服务方
    // 这里是我设置的一个AtomicInteger变量,会随定时器的执行,逐渐变小
    taskRejectFlag.getAndDecrement();
}
for(int i = 0;i < registrys.size();i++){
    RegistryDTO registry = registrys.get(i);
    Runnable thread = new Runnable() {
        @Override
        public void run() {
            List<String> parentNode = null;
            try {
                if (taskRejectFlag.get() == 0) {
                    parentNode = /** 发送HTTP请求,查询所需信息 **/;
                }
            } catch (IOException e) {
                // 发送请求失败时的重试机制
                int errorCode = Integer.parseInt(e.getMessage());
                if (errorCode != 404) {
                    try {
                        Thread.sleep(10L);
                        parentNode = /** 发送HTTP请求,查询所需信息 **/;
                    } catch (IOException ex) {
                        LOGGER.error("发送HTTP请求到服务方查询,重试失败。");
                    } catch (InterruptedException ex) {
                        LOGGER.error("重试请求到服务方等待时,报错:", ex);
                    }
                } else {
                    // 服务器挂了,停止查询服务方
                    // 对应上面的判断,会等待1小时
                    taskRejectFlag.set(60);
                }
            }

            // 原子操作,+1
            taskSendEmailFlag.getAndIncrement();

            // 只有当发送请求的实际数量taskSendEmailFlag(也是个AtomicInteger变量)和发送请求的总数量相等时,才执行如下操作,唤醒主线程
            if (taskSendEmailFlag.get() == registrys.size()) {
                try {
                    synchronized (lock) {
                        lock.notify();
                    }
                }catch (IllegalMonitorStateException e){
                    LOGGER.error("唤醒线程等待队列时,出错:", e);
                }
            }
        }
    };
    threadpool.execute(thread);
}

     然后,考虑使用消费者,主线程在等待所有子线程执行完毕之后,被唤醒以执行后续操作

try{
    synchronized (lock) {
        // 挂起主线程,等待所有子线程执行完毕后唤醒主线程
        if (taskSendEmailFlag.get() != registrys.size()) {
            LOGGER.info("挂起线程,等待查询服务方后再继续");
            lock.wait();
        }

        // 业务逻辑业务逻辑
        // 业务逻辑业务逻辑
        // 业务逻辑业务逻辑

    }
} catch (IllegalMonitorStateException | InterruptedException e) {
    LOGGER.error("等待查询服务方时,线程进行后续操作时报错:", e);
}
// 所有定时器逻辑执行完毕后,恢复为0
taskSendEmailFlag.set(0);

         感谢能看到最后。

### 部署 Stable Diffusion 的准备工作 为了成功部署 Stable Diffusion,在本地环境中需完成几个关键准备事项。确保安装了 Python 和 Git 工具,因为这些对于获取源码和管理依赖项至关重要。 #### 安装必要的软件包和支持库 建议创建一个新的虚拟环境来隔离项目的依赖关系。这可以通过 Anaconda 或者 venv 实现: ```bash conda create -n sd python=3.9 conda activate sd ``` 或者使用 `venv`: ```bash python -m venv sd-env source sd-env/bin/activate # Unix or macOS sd-env\Scripts\activate # Windows ``` ### 下载预训练模型 Stable Diffusion 要求有预先训练好的模型权重文件以便能够正常工作。可以从官方资源或者其他可信赖的地方获得这些权重文件[^2]。 ### 获取并配置项目代码 接着要做的就是把最新的 Stable Diffusion WebUI 版本拉取下来。在命令行工具里执行如下指令可以实现这一点;这里假设目标路径为桌面下的特定位置[^3]: ```bash git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git ~/Desktop/stable-diffusion-webui cd ~/Desktop/stable-diffusion-webui ``` ### 设置 GPU 支持 (如果适用) 当打算利用 NVIDIA 显卡加速推理速度时,则需要确认 PyTorch 及 CUDA 是否已经正确设置好。下面这段简单的测试脚本可以帮助验证这一情况[^4]: ```python import torch print(f"Torch version: {torch.__version__}") if torch.cuda.is_available(): print("CUDA is available!") else: print("No CUDA detected.") ``` 一旦上述步骤都顺利完成之后,就可以按照具体文档中的指导进一步操作,比如调整参数、启动服务端口等等。整个过程中遇到任何疑问都可以查阅相关资料或社区支持寻求帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值