celery 使用总结

1、推荐查看链接

        celery详解

        本人借鉴上面链接,成功配置好celery异步任务,感觉一些点总结的还算可以

2、个人celery配置config

# -*- coding: utf-8 -*-

from kombu import Queue, Exchange

# 设置Broker和backend
# BROKER_URL = 'redis://ip:6379/1'             # 将数据存放到redis1数据库,redis默认有16个数据库
# CELERY_RESULT_BACKEND = 'redis://ip:6379/1'

# 都存放到rabbitmq的好处就是,不用定期删除redis中的数据
BROKER_URL = 'amqp://mq_name:mq_passwd@ip:5672'
CELERY_RESULT_BACKEND = 'amqp://mq_name:mq_passwd@ip:5672'


CELERY_TASK_SERIALIZER = 'json'              # 任务序列化和反序列化使用json
CELERY_RESULT_SERIALIZER = 'json'            # 结果序列化为json
CELERY_ACCEPT_CONTENT = ['json']
CELERY_TIMEZONE = 'Asia/Shanghai'
CELERY_ENABLE_UTC = True

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24  # 后端存储任务超过一天,则自动清理数据,单位为秒
CELERYD_MAX_TASKS_PER_CHILD = 1000           # 每个worker最多执行1000个任务就会被销毁,可防止内存泄露


CELERYD_PREFETCH_MULTIPLIER = 2

CELERY_QUEUES = (
    Queue('default', Exchange('default'), routing_key='default'),
    Queue('process', Exchange('process'), routing_key='web', consumer_arguments={'x-priority': 0}),
)


CELERY_DEFAULT_EXCHANGE = 'tasks'            # 默认的交换机名字为tasks
CELERY_DEFAULT_EXCHANGE_TYPE = 'topic'       # 默认的交换类型是topic
CELERY_DEFAULT_ROUTING_KEY = 'task.default'  # 默认的路由键是task.default,这个路由键符合上面的default队列

# 配置某个函数对应执行queue中值为route_key的数据
CELERY_ROUTES = {
    "project.tasks.get_haha": {
        "queue": "process",
        "routing_key": "web",
    }
}

3、个人配置celery.py

# -*- coding: utf-8 -*-

from __future__ import absolute_import, unicode_literals
from celery import Celery,platforms
import sys

reload(sys)
sys.setdefaultencoding('utf8')


app = Celery("project", include=['project.tasks'])
app.config_from_object('project.config')
platforms.C_FORCE_ROOT = True


if __name__ == '__main__':
    app.start()

4、项目目录树

### Celery 的基本使用方法 Celery 是一种用于处理分布式任务队列的强大工具,支持异步任务和定时任务。以下是关于如何设置并使用 Celery 的详细介绍。 #### 1. 安装依赖库 在开始之前,需要安装 Celery 和消息中间件(如 RabbitMQ 或 Redis)。可以通过 pip 命令完成安装: ```bash pip install celery ``` 如果选择 Redis 作为消息中间件,则还需要安装 `redis-py` 库: ```bash pip install redis ``` --- #### 2. 配置 Celery 应用 创建一个 Python 文件(例如 `tasks.py`),定义 Celery 应用及其配置: ```python from celery import Celery # 初始化 Celery 应用 app = Celery( 'my_task', broker='redis://127.0.0.1:6379/0', backend='redis://127.0.0.1:6379/0' ) @app.task def add(x, y): return x + y ``` 此代码片段展示了如何初始化 Celery 应用,并将其连接到 Redis 中间件[^4]。 --- #### 3. 启动 Celery Worker 启动 Celery worker 来监听任务请求。打开终端,在项目目录下运行以下命令: ```bash celery -A tasks worker --loglevel=info ``` 这会启动一个工作进程来接收来自 Broker 的任务请求[^1]。 --- #### 4. 执行任务 可以在另一个脚本中调用已注册的任务。例如: ```python from tasks import add result = add.delay(4, 6) print(f"Task ID: {result.id}") print(f"Result: {result.get()}") ``` 这里通过 `.delay()` 方法提交任务给 Celery 处理,并返回结果对象以便查询状态或获取最终计算结果[^3]。 --- #### 5. 设置定时任务 (Optional) 为了实现周期性调度功能,可以利用 Celery 提供的 Beat 功能。首先修改配置文件以包含时间表选项: ```python CELERY_BEAT_SCHEDULE = { 'add-every-30-seconds': { 'task': 'tasks.add', 'schedule': 30.0, 'args': (16, 16), }, } ``` 接着开启 beat 服务端口: ```bash celery -A tasks beat --loglevel=info ``` 这样就可以按照设定的时间间隔自动触发指定的操作了[^5]。 --- ### 总结 以上就是有关于怎样去构建以及操作基础版别的 Celery 流程介绍。它主要涵盖了从环境搭建直至实际运用各个环节的知识要点。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值