python 任务队列管理_Python—异步任务队列Celery简单使用

本文介绍了Celery,一个强大的分布式消息队列系统,用于高效处理实时任务并支持任务调度。重点讲解了其组件、工作原理、安装配置及实战应用,包括Redis作为中间件、定时任务和简单配置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一.Celery简介

Celery是一个简单,灵活,可靠的分布式系统,用于处理大量消息,同时为操作提供维护此类系统所需的工具。它是一个任务队列,专注于实时处理,同时还支持任务调度。

中间人boker:

broker是一个消息传输的中间件。每当应用程序调用celery的异步任务的时候,会向broker传递消息,而后celery的worker将会取到消息,进行对于的程序执行。其中Broker的中文意思是 经纪人 ,其实就是一开始说的 消息队列 ,用来发送和接受消息。这个Broker有几个方案可供选择:RabbitMQ (消息队列),Redis(缓存数据库),数据库(不推荐),等等。

backend:

通常程序发送的消息,发完就完了,可能都不知道对方时候接受了。为此,celery实现了一个backend,用于存储这些消息以及celery执行的一些消息和结果。Backend是在Celery的配置中的一个配置项 CELERY_RESULT_BACKEND ,作用是保存结果和状态,如果你需要跟踪任务的状态,那么需要设置这一项。可以使用数据库作为backend。

二.特性

♦高可用:  倘若连接丢失或失败,职程和客户端会自动重试,并且一些中间人通过主/主或主/从方式复制来提高可用性。

♦快速:     单个 Celery 进程每分钟可处理数以百万计的任务,而保持往返延迟在亚毫秒级(使用 RabbitMQ、py-librabbitmq 和优化过的设置)。

♦灵活:     Celery几乎所有部分都可以扩展或单独使用。可以自制连接池、 序列化、压缩模式、日志、调度器、消费者、生产者、自动扩展、 中间人传输或更多。

♦简单:     Celery 易于使用和维护,并且它不需要配置文件。

三.组成

Celery的架构由三部分组成,消息中间件(message broker),任务执行单元(worker)和任务执行结果存储(task result store)组成。(百度上的图片)

消息中间件

Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis, MongoDB (experimental), Amazon SQS (experimental),CouchDB (experimental), SQLAlchemy (experimental),Django ORM (experimental), IronMQ

任务执行单元

Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。

任务结果存储

Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括AMQP, redis,memcached, mongodb,SQLAlchemy, Django ORM,Apache Cassandra, IronCache 等。

四.安装

安装Celery,(这里使用redis作为中间件,windows注意安装对应支持的版本)

pip3 install celery['redis']

五.简单使用

使用celery包含三个方面:1. 定义任务函数。2. 运行celery服务。3. 客户应用程序的调用。

1.目录结构:

CeleryTest

¦--tasks.py

¦--user.py

#tasks.py

importtimefrom celery importCelery

app= Celery('tasks', broker='redis://localhost:6379/0')

@app.taskdefsend(msg):print(f'send {msg}')

time.sleep(3)return

#user.py

from tasks importsendimporttimedefregister():

start=time.time()

send.delay('666')print('耗时:', time.time() -start)if __name__ == '__main__':

register()

2.这里使用redis作borker,启动redis,进入redis目录启动

$ redis-server

3.启动worker,在CeleryTest的同级目录终端输入,—A为Celery实例所在位置

$ celery -A tasks worker -l info

启动成功会看到如下画面:

4.运行user.py文件,输入如下:

耗时: 0.15261435508728027

调用 delay 函数即可启动 add 这个任务。这个函数的效果是发送一条消息到broker中去,这个消息包括要执行的函数、函数的参数以及其他信息,具体的可以看 Celery官方文档。这个时候 worker 会等待 broker 中的消息,一旦收到消息就会立刻执行消息。可以看到调用send.delay()后,耗时并没有受到time.sleep()的影响,成功的完成异步调用。我们可以在项目中执行耗时的任务时来使用Celery。这里简单演示并没有使用backend储存任务的结果。

六.使用配置文件

将Celery封装成一个项目进行使用,这里简单的配置一下,方便演示,更多配置参数可以参考官方文档。

celery_demo

¦--celery_app

¦--__init__.py

¦--celeryconfig.py

¦--task1.py

¦--task2.py

¦--client.py

__init__.py

from celery importCelery

app= Celery('demo') #生成实例

app.config_from_object('celery_app.celeryconfig') #加载配置

celeryconfig.py

BROKER_URL = 'redis://127.0.0.1:6379' #指定 Broker

CELERY_RESULT_BACKEND = 'redis://127.0.0.1:6379/0' #指定 Backend

CELERY_TIMEZONE= 'Asia/Shanghai' #指定时区,默认是 UTC#CELERY_TIMEZONE='UTC'

CELERY_IMPORTS= ( #指定导入的任务模块

'celery_app.task1','celery_app.task2')

task1.py

importtimefrom celery_app importapp

@app.taskdefadd(x, y):

time.sleep(2)return x + y

task2.py

importtimefrom celery_app importapp

@app.taskdefmultiply(x, y):

time.sleep(2)return x * y

client.py

from celery_app importtask1from celery_app importtask2

res1= task1.add.delay(2, 8) #或者 task1.add.apply_async(args=[2, 8])

res2 = task2.multiply.delay(3, 7) #或者 task2.multiply.apply_async(args=[3, 7])

print('hello world')

启动worker,在celery_demo目录执行下列命令

celery_demo $ celery -A celery_app worker -l info

接着,运行$ python client.py,它会发送两个异步任务到 Broker,在 Worker 的窗口我们可以看到如下输出:

在前面的例子中,我们使用 delay()或 apply_async()方法来调用任务。事实上,delay 方法封装了 apply_async,如下:

def delay(self, *partial_args, **partial_kwargs):"""Shortcut to :meth:`apply_async` using star arguments."""

return self.apply_async(partial_args, partial_kwargs)

七.定时任务

Celery 除了可以执行异步任务,也支持执行周期性任务(Periodic Tasks),或者说定时任务。Celery Beat 进程通过读取配置文件的内容,周期性地将定时任务发往任务队列。在上面的例子中,修改配置文件即可实现。

celeryconfig.py

from celery.schedules importcrontabfrom datetime importtimedelta

BROKER_URL= 'redis://127.0.0.1:6379' #指定 Broker

CELERY_RESULT_BACKEND = 'redis://127.0.0.1:6379/0' #指定 Backend

CELERY_TIMEZONE= 'Asia/Shanghai' #指定时区,默认是 UTC#CELERY_TIMEZONE='UTC'

CELERY_IMPORTS= ( #指定导入的任务模块

'celery_app.task1','celery_app.task2')#schedules

CELERYBEAT_SCHEDULE ={'add-every-30-seconds': {'task': 'celery_app.task1.add','schedule': timedelta(seconds=30), #每 30 秒执行一次

'args': (5, 8) #任务函数参数

},'multiply-at-some-time': {'task': 'celery_app.task2.multiply','schedule': crontab(hour=10, minute=50), #每天早上 10 点 50 分执行一次

'args': (3, 7) #任务函数参数

}

}

启动worker,然后定时将任务发送到 Broker,在celery_demo目录下执行下面两条命令:

celery -A celery_app worker -l info

celery beat-A celery_app

上面两条命令也可以合并为一条:

celery -B -A celery_app worker -l info

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值