flume+Quartz作业调度框架

本文记录了在项目中使用Flume读取日志文件并利用Quartz进行作业调度,以防止数据丢失和拦截器堆积的问题。通过创建定时任务删除拦截器中的堆积数据,提升了处理效率。另外提到了使用Caffeine缓存来替代定时任务的优化方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

好吧又是被吐槽写了挫挫的代码的一天,虽然写的代码不太好,但是还是新学习了Quartz作业调度框架的使用,现做个笔记吧~
首先介绍下在做项目的需求:
使用flume读取日志文件,使用拦截器对日志文件的内容进行信息聚合后存储到es当中。在这个过程中,会存在因意外原因丢失数据的问题,而当部分数据丢失,会引起flume拦截器中有部分多余的信息堆积,长此以往会降低flume的处理速度。
针对这个问题,现设计的是使用Quartz实现一个定时任务,定时去判断拦截器中是否有数据堆积,并将堆积的数据删除。

二话不说,直接上代码~

首先是定义MyScheduler类

import org.quartz.*;
import org.quartz.impl.StdSchedulerFactory;
import java.util.concurrent.TimeUnit;

public class MyScheduler {
	public void go() throws Exception {
   		SchedulerFactory schedulerFactory = new StdSchedulerFactory();
    	Scheduler scheduler = schedulerFactory.getScheduler();
   		 //获得要执行的对象
   		JobDetail snapJobDetail = JobBuilder.newJob(SnapJob.class).withIdentity("job1","group1").build();
    	JobDetail coverJobDetai = JobBuilder.newJob(CoverJob.class).withIdentity("job2","group2").build();
    	//定义触发器
    	Trigger trigger1 = TriggerBuilder.newTrigger().withIdentity("trigger1","triggerGroup1")
            .startNow()
            .withSchedule(SimpleScheduleBuilder.simpleSchedule()
                    .withIntervalInMinutes(2)
                    .repeatForever()).build();
    	Trigger trigger2 = TriggerBuilder.newTrigger().withIdentity("trigger2","triggerGroup2")
            .startNow()
            .withSchedule(SimpleScheduleBuilder.simpleSchedule()
                    .withIntervalInMinutes(2)
                    .repeatForever()).build();
   		 //将任务和Trigger放入scheduler
   		scheduler.scheduleJob(snapJobDetail,trigger1);
    	scheduler.scheduleJob(coverJobDetai,trigger2);
    	//启动
    	scheduler.start();
    }
}

然后定义SnapJob类,CoverJob类同理

import org.quartz.Job;
import org.quartz.JobExecutionContext;
import org.quartz.JobExecutionException;
import java.text.ParseException;
import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.Iterator;
import java.util.Map;

public class SnapJob implements Job {
	 public void execute(JobExecutionContext jobExecutionContext) throws JobExecutionException {
   		SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSS");
    	Long time = new Date().getTime();
   		Iterator<Map.Entry<String,SnapBean>> it = MyInterceptor.snapMap.entrySet().iterator();
   		while(it.hasNext()){
        	Map.Entry<String,SnapBean> entry = it.next();
        	String startTime = entry.getValue().getStartTime();
        	try {
            	Long start = simpleDateFormat.parse(startTime.split("\\+")[0]).getTime();
           		if(time - start > 12000){
                	MyInterceptor.snapMap.remove(entry.getKey());
            	}
        	} catch (ParseException e) {
            	e.printStackTrace();
        	}
    	}
	}
}

而在MyInterceptor类中会有对应的Map定义,这里就不放代码啦~开启定时任务的代码如下(我是在flume拦截器初始化的时候开启的)

public void initialize() {
    // TODO Auto-generated method stub
    new Thread("cleaner"){
        @Override
        public void run(){
            MyScheduler myScheduler = new MyScheduler();
            try {
                myScheduler.go();
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    }.start();
}

其实有个更加好的做法是不需要使用定时任务,直接将数据保存在Caffeine缓存中就行了,可以使用expireAfterWrite来设置数据在缓存中存留的时间,即:

        Cache<String, SnapBean> snapCache = Caffeine.newBuilder()
        	.expireAfterWrite(5, TimeUnit.MINUTES)
       		.build();

嗯就先写到这儿吧~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值