计划任务的常见错误写法

最近遇到的schedule问题总结

获取大量的数据逐条处理

许多计划任务是用于统计或者批处理的,经常需要遍历某个列表

比如:

//查找所有将要过期的用户,逐个发送邮件

       Iterable<UserEntity> users = userDAO.findExpireUser();
       for (UserEntity user : users) {

      //发送逻辑
                Thread.sleep(5000);
           }
       }

上面的这个例子里,开发者可能认为同时过期的用户可能不多,不过如果系统里的用户是同一天批量创建的,他们中的大多数会在同一天过期,于是就可能出现几万,几十万用户都需要发邮件的壮观场面。。。。上面这个例子里,一次来了两百万。

正确做法:

取数据要分页取,分页处理,处理了立即释放,除非你非常确定不会增长的列表,都不许用listAllgetAll,因为生产环境的行为永远出乎你的意料。

Iterable<UserEntity> users = userDAO.findExpireUserbyPage(i,pagesize);
       for (UserEntity user : users) {

       //发送逻辑
                Thread.sleep(5000);
           }
       }

从团队方面来讲,凡是DAO里面有listAllgetAll,无条件search的都是问题高发区,团队应该限制对这些方法的调用。

 

 

在循环里Sleep一会儿

还是上面的例子,每次发送邮件等待5秒。假如有200w用户同时过期,还不算发送逻辑本身的时间,大概是115.7天的时间,关键是在这大概4个月的时间里,users这个列表妥妥的无法被回收,轻松吃掉一两个G内存呢,而且OutOfMemory可等不了4个月,分分钟在来的路上呢。

 

正确做法:

在循环里千万不要sleep或者调用太费时的任务,比如上面的逻辑,应该把邮件放到发送列表,然后立刻返回,这些耗时的操作,比如发送邮件这些事情,应该交给另外的进程去完成。术业有专攻,不要越俎代庖

 

Iterable<UserEntity> users = userDAO.findExpireUserbyPage(i,pagesize);
       for (UserEntity user : users) {

       //发送逻辑
                MailBox.put(new ExpireMail(user.mail))
           }
       }

被直觉带节奏

产品:请写一个schedule统计出所有用户每天的登录次数

程序猿的设计:分页获取所有用户,查找该页用户今天的登录日志条数

UserEntity users=GetAllUser(pagepageSize);

For(UserEntity user in users){

List<Log>  logs=getLoginLogForToday(user.username);

System.out.println(“username:”+user.username+” logintimes:”+logs.size);

}

上面的需求、设计、代码看起来简洁有效,需要让统计用户,所以我就循环所有用户,但是你肯定就上当了。这个实现是个坑,因为用户不会都登录,设想一个网站有1000万用户,每天登录的用户可能就100w人次,按照上面的实现,一定会循环1000万次,但是如果反过来,从日志入手,就只用循环100w

 

正确做法:

找到循环最少的路径,不要被语言表面的意思所干扰,不是需求的主语一定是程序的主题

 

1次循环就能完成?不,让我多来几次

比如每分钟我们要把登录日志取出来,分析下有没有异常情况,比如有没有ip重复登录啦,有没有应用访问量超标啊,有没有人在危险的地区登录啊,然后把危险情况产生预警,通知管理员。于是产生了这样的代码

IpLoginAnalyzer implements Analyzer{

Public void process(){

List<log> logs=getLog(Now,lastCheckTime)

。。。分析逻辑

}

}

AppVisitBarrierAnalyzer implements Analyzer{

Public void process(){

List<log> logs=getLog(Now,lastCheckTime)

。。。分析逻辑

}

}

DangerLocationAnalyzer implements Analyzer{

Public void process(){

List<log> logs=getLog(Now,lastCheckTime)

。。。分析逻辑

}

}

。。。。。

//处理日志逻辑

Foranalyzer in AnalyerList{

Analyzer.process()

}

 

乍一看很顺眼,每个analyzer干自己的事情,但是具体执行起来,会多次查询和循环日志,考虑下假如有100个分析器,就会遍历日志100次,加上执行process本身需要时间,非常可能造成这分钟的还没有执行完,下次的分析又开始了,一波波最终叠加成海啸,让应用歇菜。

 

正确做法:

日志分析,如果至少要遍历一遍,那么最好也就只遍历一遍,写个遍历器,负责逐条遍历,把每条交给各个处理器处理,一次遍历解决所有问题。

List<log> logs=getLog(Now,lastCheckTime)

For(log in logs){

Foranalyzer in AnalyerList{

if(analyzer.canProcess(log))

analyzer.process(log)

}

}

 

可能你会问,如果每个处理器处理的日志类型不同怎么办呢,比如有的处理器处理登录,有的处理创建用户,有的要处理所有日志,其实只要有处理所有日志的情况,其他的处理就可以一起做了,反正都要循环一次,就不要再浪费cpu循环多次了,对开发团队来说,日志处理应该有统一的框架,有统一的人审核,处理类似数据,执行频率相同的要归并,否则各自为政就会出现上面的情况。

<think>好的,我现在需要回答用户关于如何在Sinodb中实现定时任务的问题。首先,我要确认用户提到的Sinodb是什么。但可能用户是指某个特定的数据库系统,比如SQL Server、MySQL,或者可能是一个拼写错误,比如可能是指SinoDB,这是一个基于Informix的数据库系统。不过,根据常见数据库系统,假设用户可能指的是SinoDB,或者可能是其他系统,但由于信息不足,我需要先进行假设。 接下来,我需要回忆常见数据库系统中定时任务的实现方法。例如,MySQL有事件调度器,PostgreSQL有pgAgent或pg_cron,而SQL Server有SQL Server代理作业。但用户提到的是Sinodb,可能是一个特定的系统,或者用户可能有拼写错误。假设用户指的是SinoDB(即原Informix),那么我需要查找Informix/SinoDB中如何创建定时任务。 根据Informix的知识,Informix本身不直接提供内置的定时任务调度功能,但可以通过外部工具或结合操作系统的定时任务(如cron)来实现。例如,可以使用cron来定期执行SQL脚本或存储过程。此外,也可以通过编写自定义的守护进程或使用第三方调度工具来触发数据库操作。 用户可能需要一个具体的示例,比如如何使用cron来执行SQL语句。例如,创建一个shell脚本,调用dbaccess执行特定的SQL文件,然后将该脚本添加到cron作业中。此外,如果SinoDB支持存储过程,可以编写存储过程,并通过外部调度工具定期调用。 还需要考虑是否有类似其他数据库的内置任务调度功能。例如,在SinoDB中是否有类似MySQL事件调度器的功能,或者是否有扩展或插件支持定时任务。如果存在,用户可能需要创建事件或作业,指定执行时间和SQL语句。 另外,可能需要参考类似系统的实现方法,比如使用数据库的存储过程加上外部调度器。例如,在Oracle中可以使用DBMS_SCHEDULER包,而PostgreSQL可以使用pg_cron扩展。如果SinoDB支持类似机制,需要指出具体的语法和步骤。 同时,考虑到用户提供的引用中提到了Java中的定时任务实现,比如使用@Scheduled注解、Executor、Timer等,但用户现在询问的是数据库层面的定时任务,可能需要区分应用层和数据库层的定时任务实现。例如,在应用层使用Spring的@Scheduled,或者在数据库层使用内置调度功能。 总结来说,可能的实现步骤包括: 1. 使用操作系统的cron或计划任务来定期执行数据库命令或脚本。 2. 利用数据库内置的调度功能(如果存在)。 3. 编写存储过程,并通过外部触发器定期执行。 4. 使用第三方调度工具与数据库结合。 如果SinoDB本身没有内置调度器,那么推荐使用操作系统级别的定时任务来调用数据库客户端工具执行SQL脚本。例如,在Linux系统中,使用cron定时执行一个shell脚本,该脚本使用dbaccess或类似工具连接数据库并运行SQL文件。 接下来,需要给出具体的示例。例如,创建一个名为daily_cleanup.sql的SQL文件,里面包含需要定期执行的SQL语句,然后创建一个shell脚本调用dbaccess执行该文件,最后设置cron作业每天执行该脚本。 此外,如果SinoDB支持事件调度,可能需要使用CREATE EVENT语句,类似于MySQL的事件。需要查阅SinoDB的文档确认是否存在这样的功能,如果存在,则提供相应的SQL示例。 最后,要确保回答结构清晰,分步骤说明,并给出示例代码或配置,同时引用相关的参考资料。需要检查是否有相关的引用可以帮助用户,比如引用[3]提到定时任务调度的常见方法,可能可以引用该部分说明数据库外的调度方式。</think>在Sinodb中实现定时任务通常需要结合数据库功能与外部工具。根据现有技术方案,以下是几种常见实现方法及示例: ### 一、通过操作系统定时任务调用 **1. Linux cron方案** **步骤说明**: 1. 创建SQL脚本文件:`cleanup_data.sql` ```sql BEGIN WORK; DELETE FROM logs WHERE created_at < CURRENT - 30 UNITS DAY; COMMIT WORK; ``` 2. 创建Shell脚本:`run_cleanup.sh` ```bash #!/bin/bash dbaccess your_database cleanup_data.sql ``` 3. 添加cron任务(每天凌晨执行) ```bash 0 0 * * * /path/to/run_cleanup.sh ``` **优点**:简单直接,适用于所有支持命令行工具的数据库[^3]。 --- ### 二、使用存储过程+外部触发器 **1. 创建存储过程** ```sql CREATE PROCEDURE daily_report() BEGIN INSERT INTO report_table SELECT * FROM daily_data WHERE date = TODAY; END PROCEDURE; ``` **2. 通过Java/Spring调用** 引用应用层定时任务框架(如Spring的`@Scheduled`)定期调用存储过程: ```java @Scheduled(cron = "0 0 2 * * ?") // 每天凌晨2点执行 public void triggerReport() { jdbcTemplate.execute("EXECUTE PROCEDURE daily_report()"); } ``` **适用场景**:需要与应用逻辑联动的定时任务[^2]。 --- ### 三、第三方调度工具集成 **示例:使用Apache Airflow** 1. 编写DAG任务文件: ```python from airflow import DAG from airflow.operators.bash_operator import BashOperator from datetime import datetime dag = DAG('sinodb_maintenance', schedule_interval='0 3 * * *') task = BashOperator( task_id='clean_old_data', bash_command='dbaccess production_db /scripts/cleanup.sql', dag=dag ) ``` **优势**:支持任务监控、重试机制等高级特性。 --- ### § 注意事项 - **权限控制**:确保执行脚本的用户有数据库访问权限 - **日志记录**:在脚本中添加`SET DEBUG FILE TO '/path/log.txt';`跟踪执行结果 - **锁竞争**:长时间任务建议在低峰期执行 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值