一.问题抛出:
在网站开发的时候,也许会碰到这样的需求:用户在我们的网站填写注册信息,我们发给用户一封注册激活邮件到用户邮箱,如果由于各种原因,这封邮件发送时间较长,那么用户会等待很久,造成不好的用户体验。
二.问题解决:
我们将耗时任务放到后台异步执行。不会影响用户其他操作。除了注册功能外,比如上传,图形处理等耗时的任务,都可以按照这种思路来解决。如何实现异步执行任务呢?celery粉墨登场,给你完美体验!
三.celery介绍:
celery是一个功能完备即插即用的任务队列。然而,它的使用还非常简答。今天是我先分享给大家一些关于celery的简单了解。celery适用异步处理问题,当发送邮件、或者文件上传, 图像处理等等一些比较耗时的操作,我们可将其异步执行,这样用户不需要等待很久,提高用户体验。
celery的特点是:
简单,易于使用和维护,有丰富的文档;
高效,单个celery进程每分钟可以处理数百万个任务;
灵活,celery中几乎每个部分都可以自定义扩展。
四.TaskQueue(任务队列):
任务队列是一种跨线程,跨机器工作的一种机制。任务队列中包含称做任务的工作单元。有专门的工作进程持续不断的监视任务队列,并从中获得新的任务并处理。
celery通过消息进行通信,通常使用一个叫做Broker(中间人)来协client(任务的发出者)和worker(任务的处理者). clients发出消息到队列中,broker将队列中的信息派发给worker来处理。一个celery系统可以包含很多的worker和broker,可增强横向扩展性和高可用性能。
五.Celery安装:
我们可以使用python的包管理器pip来安装:
pip install -U Celery
或者
pip install celery
也可从官方直接下载安装包:https://pypi.python.org/pypi/celery/
tar xvfz celery-0.0.0.tar.gz
cd celery-0.0.0
python setup.py build
python setup.py install
六.Broker:
Celery需要一种解决消息的发送和接受的方式,我们把这种用来存储消息的的中间装置叫做message broker, 也可叫做消息中间人。 作为中间人,我们有几种方案可选择:
1.RabbitMQ:功能完备,稳定的并且易于安装的broker. 它是生产环境中最优的选择。使用RabbitMQ的细节参照以下链接:
http://docs.celeryproject.org/en/latest/getting-started/brokers/rabbitmq.html#broker-rabbitmq
如果是Ubuntu或者Debian发行版的Linux,可以直接通过下面的命令安装RabbitMQ: sudo apt-get install rabbitmq-server 安装完毕之后,RabbitMQ-server服务器就已经在后台运行。
如果不是,可以在以下网址:http://www.rabbitmq.com/download.html 去查找自己所需要的版本软件。
2.Redis:Redis也是一款功能完备的broker可选项,但是其更可能因意外中断或者电源故障导致数据丢失的情况。关于使用哪个Redis作为Broker,可访下面网址: http://docs.celeryproject.org/en/latest/getting-started/brokers/redis.html#broker-redis
七.Application:
1.使用celery第一件要做的最为重要的事情是需要先创建一个Celery实例,我们一般叫做celery应用,或者更简单直接叫做一个app。app应用是我们使用celery所有功能的入口,比如创建任务,管理任务等,在使用celery的时候,app必须能够被其他的模块导入。
2.创建应用:首先创建tasks.py模块,内容为:
from celery import Celery
# 此案例使用redis作为broker
app = Celery('demo',broker='redis://:332572@127.0.0.1/1')
# 创建任务函数
@app.task
def my_task():
print('任务函数正在执行....')
说明:Celery第一个参数为给其设定的别名,第二个参数为指定的中间人broker,这里使用Redis作为中间人。my_task为任务函数,通过装饰器app.task,将其注册到broker队列中。
现在我们用如下命令创建一个worker,等待处理队列中的任务。打开终端,cd到task.py同级目录中:
celery -A tasks worker --loglevel=info
3.调用任务:
任务加入到broker队列中,以便刚才我们创建的celery workder服务器能够从队列中取出任务并执行。如何将任务函数加入到队列中,可使用delay()。
进入python终端, 执行如下代码:
from tasks import my_task
my_task.delay()
4.存储结果:
如果我们想跟踪任务的状态,Celery需要将结果保存到某个地方。有几种保存的方案可选:SQLAlchemy、Django ORM、Memcached、 Redis、RPC (RabbitMQ/AMQP)。
例子我们仍然使用Redis作为存储结果的方案,任务结果存储配置我们通过Celery的backend参数来设定。我们将tasks模块修改如下:
from celery import Celery
# 我们这里案例使用redis作为broker
app = Celery('demo',
backend='redis://:332572@127.0.0.1:6379/2',
broker='redis://:332572@127.0.0.1:6379/1')
# 创建任务函数
@app.task
def my_task(a, b):
print("任务函数正在执行....")
return a + b
更多关于result对象信息,请参阅下列网址:
http://docs.celeryproject.org/en/latest/reference/celery.result.html#module-celery.result
八.配置:
1.配置信息可以直接在app中设置,或者通过专有的配置模块来配置。
2.直接通过app来配置:
from celery import Celery
app = Celery('demo')
# 增加配置
app.conf.update(
result_backend='redis://:332572@127.0.0.1:6379/2',
broker_url='redis://:332572@127.0.0.1:6379/1',
)
3.专有配置文件:
对于比较大的项目,我们建议配置信息作为一个单独的模块。我们可以通过调用app的函数来告诉Celery使用我们的配置模块。
配置模块的名字我们取名为celeryconfig, 这个名字不是固定的,我们可以任意取名,建议这么做。我们必须保证配置模块能够被导入。
下面我们在tasks.py模块 同级目录下创建配置模块celeryconfig.py:
result_backend = 'redis://:332572@127.0.0.1:6379/2'
broker_url = 'redis://:332572@127.0.0.1:6379/1'
tasks.py文件修改为:
from celery import Celery
import celeryconfig
# 我们这里案例使用redis作为broker
app = Celery('demo')
# 从单独的配置模块中加载配置
app.config_from_object('celeryconfig')
更多配置:
http://docs.celeryproject.org/en/latest/userguide/configuration.html#configuration
摇旗呐喊: 欢迎各位码友激情评论!