Celery实现周期任务

本文介绍了Python实现的分布式队列服务Celery,它支持即时和定时任务。阐述了Celery的五个核心角色,包括任务、经纪人、工作者、调度器和结果保存处。还给出入门操作步骤,分析了入门操作中可能出现的报错及解决办法,最后提及将在Django中使用Celery。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  这个翻译之后居然叫芹菜~~最近Django框架需要涉及到执行周期任务~~上网搜了下其实还挺多的(django_crontab:这个学习周期短,但是发现不仅麻烦还不好用啊)、(apscheduler,简单还行在没完全掌握Celery时先用它顶了一段时间,但是需要注意不同版本的使用方法差别还挺大的),最后还是决定花时间来学学,Celery是Python语言实现的分布式队列服务,除了支持即时任务,还支持定时任务。

Celery中的五个核心角色

  • Task

  任务(Task)就是你要做的事情,例如一个注册流程里面有很多任务,给用户发验证邮件就是一个任务,这种耗时任务可以交给Celery去处理,还有一种任务是定时任务,比如每天定时统计网站的注册人数,这个也可以交给Celery周期性的处理。

  • Broker

  Broker 的中文意思是经纪人,指为市场上买卖双方提供中介服务的人。在Celery中它介于生产者和消费者之间经纪人,这个角色相当于数据结构中的队列。例如一个Web系统中,生产者是处理核心业务的Web程序,业务中可能会产生一些耗时的任务,比如短信,生产者会将任务发送给 Broker,就是把这个任务暂时放到队列中,等待消费者来处理。消费者是 Worker,是专门用于执行任务的后台服务。Worker 将实时监控队列中是否有新的任务,如果有就拿出来进行处理。Celery 本身不提供队列服务,一般用 Redis 或者 RabbitMQ 来扮演 Broker 的角色

  • Worker

  Worker 就是那个一直在后台执行任务的人,也称为任务的消费者,它会实时地监控队列中有没有任务,如果有就立即取出来执行。

  • Beat

  Beat 是一个定时任务调度器,它会根据配置定时将任务发送给 Broker,等待 Worker 来消费。

  • Backend

  Backend 用于保存任务的执行结果,每个任务都有返回值,比如发送邮件的服务会告诉我们有没有发送成功,这个结果就是存在Backend中,当然我们并不总是要关心任务的执行结果。

                                                 

入门操作

1、安装(Celery4.x 开始不再支持Windows平台,如果需要在Windows开发,请使用3.x的版本)

pip install celery==3.1.15

2、创建一个实例

# 创建一个Celery实例,broker是管道用于储存任务,官方推荐Redis、RabbitMQ;backend用于存储任务执行结果
app = Celery("tasks", broker="redis://127.0.0.1:6379", backend='redis://127.0.0.1:6379')

 3、直接上代码(新建一个celery_task1目录,里面建下面两个py文件)

#!/usr/bin/env python3
# -*- encoding:utf-8 -*-
"""
author:Barret
mail:barret_vip@163.com
"""
from celery import Celery
import time

# 创建Celery实例
app = Celery('tasks', broker='redis://127.0.0.1:6379',
                      backend='redis://127.0.0.1:6379',
             )
app.conf.task_protocol = 1

# 创建任务
@app.task
def add(x):
    time.sleep(1)
    print("开始任务了:%s" %x)
    return x
celerys.py
#!/usr/bin/env python3
# -*- encoding:utf-8 -*-
"""
author:Barret
mail:barret_vip@163.com
"""
from celery.result import AsyncResult
import sys

dir = r"D:\today\celery_task1"
sys.path.append(dir)  # 我的任务文件不在环境变量里,IDLE找不到
from celerys import add
reslut = add.delay(1)

# 判断是否有值,get调用会阻塞
print(reslut) # 可以查看id,也可以使用reslut.id获取id。

# 异步获取任务返回值
async_task = AsyncResult(id="45cf4a22-82d5-43f2-a0c9-8fd3af6b1136", app=add)

# 判断异步任务是否执行成功
if async_task.successful():
    r = reslut.get(propagate=False)  # 出现异常返回异常不触发异常
    print(r)
else:
    print("任务还没执行完毕")
cmd

4、执行步骤(不建议直接在Django项目中创建,会出现报错)

# 1、打开CMD或者Pycharm下的Terminal执行下面命令:
celery -A celerys  worker -l info -P eventlet

# 2、接着运行cmd.py即可打印结果

 结果出现这样的即运行成功:

入门操作报错

  • BUG1:如果出现:AttributeError: 'str' object has no attribute 'items',则是redis版本过高(我安装的是3.x),安装2.10.6即可~(但是在我安装2.10之后又说我版本太低,但是当我重新装回3.x的时候又能用了~~~我只能说玄学好吧)

  •  BUG_2:如果出现下面这个报错解决办法是,在实例化Celery时添加下面配置项,这个好像是新协议问题,使用指定到旧协议。

# 在app创建的时候指定
CELERY_TASK_PROTOCOL = 1  # Django中使用这个
app.conf.task_protocol = 1
BUG_2:解决办法
  • BUG_3:如果想获取返回结果直接用get方式会报错,需要指定保存任务结果的位置。
reslut.get()  # 会报错这里是实例化的时候,没有定义backend,就是保存任务结果的位置。

  • BUG_3解决:指定输出到,我这里还是指定到redis中。

好吧我算是把各种报错都玩了个遍~~~~

  • BUG_4:在执行时又出现下面这个报错了
Traceback (most recent call last):
  File "d:\programmingsoftware\python35\lib\site-packages\billiard\pool.py", line 358, in workloop
    result = (True, prepare_result(fun(*args, **kwargs)))
  File "d:\programmingsoftware\python35\lib\site-packages\celery\app\trace.py", line 525, in _fast_trace_task
    tasks, accept, hostname = _loc
ValueError: not enough values to unpack (expected 3, got 0)
pip install eventlet # 安装一下
celery -A task1 worker -l info -P eventlet # 将启动命令改成这个
再去执行cmd.py就没问题了~~
BUG_4:解决方法
  • 哇~~~~想哭一波三折终于看到输出了(这一步就代表初步使用没问题了,接下来我终于可以做周期任务了)

在Django中使用Celery

更新中..................

 

转载于:https://www.cnblogs.com/Dream-huang/p/10901076.html

### 如何在 Django 中使用 Celery 设置周期任务 #### 1. 安装依赖库 为了实现 Django 和 Celery 的集成以及支持周期任务功能,需要安装以下 Python 库: - `celery`: 提供核心的任务队列功能。 - `django-celery-beat`: 支持通过数据库管理周期任务。 可以通过 pip 安装这些库: ```bash pip install celery django-celery-beat ``` --- #### 2. 创建 Celery 配置文件 在项目的根目录下(通常是 settings.py 所在的目录),创建一个新的文件名为 `celery.py`。该文件用于初始化 Celery 对象并加载必要的配置[^1]: ```python import os from celery import Celery os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'your_project_name.settings') app = Celery('your_project_name') app.config_from_object('django.conf:settings', namespace='CELERY') app.autodiscover_tasks() ``` > **注意**: 将 `your_project_name` 替换为实际的 Django 项目名称。 --- #### 3. 修改 `__init__.py` 为了让 Django 启动时自动加载 Celery 配置,在同一目录下的 `__init__.py` 文件中添加如下代码[^1]: ```python from .celery import app as celery_app __all__ = ('celery_app',) ``` 这一步确保了当 Django 加载应用时会一并加载 Celery 配置。 --- #### 4. 更新 `settings.py` 在 Django 的 `settings.py` 文件中,添加或修改以下配置项以支持 Celery 及其周期任务功能[^2][^3]: ```python # Celery Broker URL (推荐使用 Redis 或 RabbitMQ) CELERY_BROKER_URL = 'redis://localhost:6379/0' # 结果存储后端 (可选) CELERY_RESULT_BACKEND = 'redis://localhost:6379/0' # 数据库调度器 (启用 djcelery.schedulers.DatabaseScheduler) CELERY_BEAT_SCHEDULER = 'django_celery_beat.schedulers:DatabaseScheduler' ``` 如果未安装 Redis,则可以替换为其他消息中间件(如 RabbitMQ)。同时,确保 Redis 已经运行在本地主机上。 --- #### 5. 初始化数据库表结构 由于启用了 `django-celery-beat` 插件,因此需要迁移数据库以生成相关的表结构: ```bash python manage.py migrate ``` 此时会在数据库中看到由 `django-celery-beat` 自动生成的一系列表格,例如 `django_celery_beat_periodictask` 等。 --- #### 6. 添加周期任务 有多种方式定义周期任务,以下是两种常见方法: ##### 方法一:使用 `@periodic_task` 装饰器 可以在任意模块中定义一个简单的周期任务函数,并用 `@periodic_task` 装饰它[^4]: ```python from celery import shared_task from celery.schedules import crontab from your_app.tasks import periodic_task @shared_task def my_periodic_task(): print("This task runs every minute.") my_periodic_task.apply_async(countdown=60) # 每分钟触发一次 ``` 或者更复杂的 Crontab 表达式也可以被接受: ```python @periodic_task(run_every=crontab(hour=8, minute=0)) def daily_report(): """ 每天早上 8 点发送报告邮件 """ send_email_to_admins() ``` ##### 方法二:通过 Admin 页面手动配置 另一种灵活的方式是在后台管理系统中动态添加周期任务。访问 `/admin/django_celery_beat/periodictask/add/` 并填写相应的字段来设定新任务的时间间隔、参数等内容。 --- #### 7. 启动 Celery Worker 和 Beat 完成上述步骤之后,分别启动 Celery worker 和 beat 来处理任务队列和计划任务: ```bash # 启动 Celery Worker celery -A your_project_name worker --loglevel=info # 启动 Celery Beat Scheduler celery -A your_project_name beat --loglevel=info ``` 两个进程应保持独立运行状态以便更好地监控各自的工作情况。 --- ### 总结 综上所述,借助于 `django-celery-beat` 插件能够轻松实现在 Django 应用中的复杂定时作业安排机制。只需按照前述指南逐步操作即可快速部署一套完整的解决方案[^1]^. ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值