Celery

本文介绍了Celery这一分布式任务队列的基本概念及其组件,包括Broker、Worker和Backend的作用。同时,文章还提供了如何在Python环境中配置和使用Celery的具体步骤,以及如何利用RabbitMQ作为消息中间件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Celery 是 Distributed Task Queue,分布式任务队列,分布式决定了可以有多个 worker 的存在,队列表示其是异步操作,即存在一个产生任务提出需求的工头,和一群等着被分配工作的码农。

在 Python 中定义 Celery 的时候,我们要引入 Broker,中文翻译过来就是“中间人”的意思,在这里 Broker 起到一个中间人的角色。在工头提出任务的时候,把所有的任务放到 Broker 里面,在 Broker 的另外一头,一群码农等着取出一个个任务准备着手做。

什么是backend?
通常程序发送的消息,发完就完了,可能都不知道对方时候接受了。为此,celery实现了一个backend,用于存储这些消息以及celery执行的一些消息和结果。

这里写图片描述

这里写图片描述

Celery 主要包含以下几个模块:

任务模块 Task

包含异步任务和定时任务。其中,异步任务通常在业务逻辑中被触发并发往任务队列,而定时任务由 Celery Beat 进程周期性地将任务发往任务队列。

消息中间件 Broker

Broker,即为任务调度队列,接收任务生产者发来的消息(即任务),将任务存入队列。Celery 本身不提供队列服务,官方推荐使用 RabbitMQ 和 Redis 等。

任务执行单元 Worker

Worker 是执行任务的处理单元,它实时监控消息队列,获取队列中调度的任务,并执行它。

任务结果存储 Backend

Backend 用于存储任务的执行结果,以供查询。同消息中间件一样,存储也可使用 RabbitMQ, redis 和 MongoDB 等。

MQ全称为Message Queue, 消息队列(MQ)是一种应用程序对应用程序的通信方法。MQ是消费-生产者模型的一个典型的代表,一端往消息队列中不断写入消息,而另一端则可以读取队列中的消息。

RabbitMQ是MQ的一种

安装RabbitMQ
sudo apt-get install rabbitmq-server

启动RabbitMQ
sudo rabbitmq-server -detached

停止RabbitMQ
sudo rabbitmqctl stop

设置RabbitMQ
sudo rabbitmqctl add_user 用户名 密码

sudo rabbitmqctl add_vhost myvhost

sudo rabbitmqctl set_user_tags 用户名 mytag

sudo rabbitmqctl set_permissions -p myvhost 用户名 “." ".” “.*”

rabbitmqctl list_queues -p myvhost

安装celery
pip install celery -i https://pypi.douban.com/simple

broker_url = ‘amqp://用户名:密码@localhost:5672/myvhost’

vim tasks

import time
from celery import Celery
app = Celery(‘tasks’, backend=‘amqp://用户名:密码@localhost:5672/myvhost’, broker=‘amqp://用户名:密码@localhost:5672/myvhost’)

@app.task
def add(x, y):
time.sleep(5)
return x + y

运行celery worker
nohup celery -A tasks(创建的文件名) worker --loglevel=info &

执行任务

from tasks import add
result = add.delay(4, 4)
result.ready()
result.get(timeout=1)
result.status
result.id

nohup celery -A tasks worker1 --loglevel=info &

### 关于 Celery 的概述 Celery 是一种用于处理分布式任务队列的工具,能够高效管理大量任务并支持实时处理以及计划任务的功能[^1]。通过 Celery,开发者可以轻松实现异步任务调度和后台作业处理。 以下是关于如何安装、配置以及运行 Celery 的详细说明: --- #### 安装与环境准备 为了正确使用 Celery,首先需要确保 Python 虚拟环境已激活。如果遇到 `pip install` 后无法正常工作的情况,可能是因为未激活虚拟环境所致[^3]。因此,在安装之前,请先确认虚拟环境的状态,并按照如下方式操作: ```bash source /path/to/virtualenv/bin/activate pip install celery ``` --- #### 运行 Celery Worker 和 Beat 启动 Celery 工作节点时,通常会指定应用名称 (`-A`) 并设置日志级别 (`-l`) 等参数。例如以下命令展示了如何以特定主机名启动一个 Celery worker 实例[^2]: ```bash /usr/bin/python3.6 -m celery worker -A CeleryPro -l info \ --logfile=w2%I.log --pidfile=w2.pid --hostname=w2@Python3 ``` 此外,还可以配合其他组件一起部署完整的 Celery 生态系统,比如周期性任务调度器 (Beat) 及监控工具 (Flower): ```bash # 启动 Celery Beat celery -A your_project_name beat --loglevel=info # 启动 Flower 监控服务 celery -A your_project_name flower ``` --- #### 创建带进度跟踪的任务 当需要从前端展示后端任务执行进展时,可通过更新任务状态的方式实现动态反馈功能[^4]。下面是一个简单的例子演示了这一过程: ```python from celery import Celery import time import random app = Celery('tasks', broker='pyamqp://guest@localhost//') @app.task(bind=True) def long_task(self): """模拟长时间运行的任务""" verbs = ["Starting", "Booting", "Fixing"] adjectives = ["quick", "lazy", "smart"] nouns = ["cat", "dog", "fox"] total_steps = random.randint(5, 15) for step in range(total_steps): if not message or random.random() < 0.2: message = f"{random.choice(verbs)} {random.choice(adjectives)} {random.choice(nouns)}" self.update_state( state="PROGRESS", meta={"current": step, "total": total_steps, "status": message} ) time.sleep(1) return {"current": 100, "total": 100, "status": "Complete!", "result": True} ``` 调用此函数后可以从返回的结果对象中读取当前完成百分比以及其他附加信息。 --- ### 注意事项 在实际开发过程中需要注意几点常见问题及其解决方案: - **Broker连接失败**: 检查 RabbitMQ 或 Redis 是否正在运行。 - **Worker进程崩溃**: 查看对应worker的日志文件定位错误原因。 - **定时任务不触发**: 确认beat的服务已经开启并且配置无误。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值