使用Celery

Celery是一个专注于实时处理和任务调度的分布式队列。所谓任务就是消息,消息中的有效载荷中包含要执行任务需要的全部数据

首先,我们来看一个架构图


产生任务的方式有2种:

1、发布者发布任务(WEB应用)

2、任务调度按期发布任务(定时任务)


celery序列化:建议使用json(python使用中)


小栗子(指定队列)




celeryconfig.py配置文件:



这三个文件在名叫proj的文件夹里,现在启动进程:

celery -A  proj worker -l info


指定队列的方式启动消费者进程:

celery -A proj worker -Q web_tasks -l info


<think>嗯,用户想在Python中用Celery实现批量接口测试任务调度。根据用户之前的提问和提供的引用,我需要综合这些信息来给出一个全面的解决方案。首先,用户之前已经有一个Django Admin的批量执行接口测试的代码,现在想用Celery来异步执行这些任务,以提高效率和可扩展性。 首先,我需要回忆Celery的基本结构,如broker、worker、result backend。用户提供的引用里提到Celery使用Redis或RabbitMQ作为消息中间件,所以这里可能需要配置Redis作为broker和backend。接下来,用户现有的代码是同步执行的,现在需要将其改造成异步任务。 然后,用户可能希望批量执行多个接口测试,每个接口测试作为一个独立的Celery任务。或者,可能需要一个任务来处理多个接口测试。根据引用中的示例,用户可能需要创建Celery任务函数,然后在Admin的批量操作中调用这些任务。 接下来,需要考虑如何将现有的Django模型与Celery集成。例如,用户可能需要将APIConfig模型的数据传递给Celery任务,让任务执行测试并更新模型的状态。这涉及到Django和Celery的协同工作,可能需要配置Celery的实例,确保其能够正确加载Django的模型。 另外,用户可能关心任务的状态跟踪和结果存储。根据之前的代码,测试结果保存在模型的test_status和test_result字段中,所以Celery任务执行完成后需要更新这些字段。同时,可能需要使用Celery的结果后端来存储任务结果,但用户可能更倾向于直接更新数据库,而不是依赖结果后端。 还需要考虑安全性,比如权限验证和任务限制,如用户提到的安全增强措施中的权限检查和最大数量限制。在异步任务中,这些检查可能需要在触发任务前进行,或者在任务执行时进行二次验证。 另外,用户可能需要任务调度,比如定时执行批量测试,这需要用到Celery的定时任务功能(beat)。引用中提到周期任务和定时任务,所以可能需要配置Celery beat来定期触发测试任务。 可能还需要处理错误情况,比如任务执行失败时的重试机制,或者异常处理,确保任务失败时能正确记录错误信息到模型。 最后,用户可能需要优化Admin界面,比如显示任务状态、执行时间等,可能需要扩展模型字段或使用Celery的任务状态来更新界面。 总结步骤应该是:安装Celery和Redis,配置Celery实例,定义异步任务函数,修改Admin的批量操作以调用Celery任务,处理任务执行并更新模型,可能添加定时任务支持,以及Admin界面的优化。</think>根据你的需求和参考内容,以下是使用Celery实现批量接口测试任务调度的完整方案: --- ### 一、环境配置 ```python # 安装依赖 pip install celery redis django-celery-results ``` ```bash # 启动Redis服务(Celery的broker和backend) redis-server ``` --- ### 二、Celery配置 ```python # proj/celery.py from __future__ import absolute_import from celery import Celery import os os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'your_project.settings') app = Celery('proj', broker='redis://localhost:6379/0', backend='redis://localhost:6379/1', include=['api.tasks']) app.conf.update( task_serializer='json', accept_content=['json'], result_serializer='json', timezone='Asia/Shanghai', enable_utc=True, ) # 添加定时任务配置 app.conf.beat_schedule = { 'batch-test-daily': { 'task': 'api.tasks.batch_api_test', 'schedule': 86400, # 每天执行 'args': (), }, } ``` --- ### 三、Django集成配置 ```python # settings.py CELERY_RESULT_BACKEND = 'django-db' CELERY_CACHE_BACKEND = 'django-cache' INSTALLED_APPS += ('django_celery_results',) ``` --- ### 四、任务逻辑实现 ```python # api/tasks.py from celery import shared_task from .models import APIConfig import requests from django.utils import timezone @shared_task def single_api_test(api_id): """单个接口测试任务""" try: api = APIConfig.objects.get(id=api_id) api.last_test_time = timezone.now() # 执行测试(示例带参数) response = requests.request( method=api.method, url=api.url, headers=api.get_parsed_headers(), # 模型需添加headers字段 data=api.get_parsed_body(), timeout=10 ) # 更新测试结果 api.test_status = 'Success' if response.ok else 'Failed' api.test_result = f"状态码: {response.status_code}\n响应体: {response.text[:200]}" api.save() return f"API {api_id} 测试完成" except Exception as e: api.test_status = 'Error' api.test_result = str(e) api.save() raise e @shared_task def batch_api_test(api_ids=None): """批量测试任务""" queryset = APIConfig.objects.filter(id__in=api_ids) if api_ids else APIConfig.objects.all() # 创建任务链 tasks = [single_api_test.s(api.id) for api in queryset] # 使用chunk并行执行 chunk = celery.group(tasks)() return chunk.get() ``` --- ### 五、Admin界面改造 ```python # admin.py from django.contrib import admin from .models import APIConfig from .tasks import batch_api_test class APIConfigAdmin(admin.ModelAdmin): actions = ['async_batch_test'] def async_batch_test(self, request, queryset): api_ids = list(queryset.values_list('id', flat=True)) # 触发异步任务 task = batch_api_test.delay(api_ids) self.message_user(request, f"已提交{len(api_ids)}个测试任务,任务ID: {task.id}") async_batch_test.short_description = "🚀 异步批量测试" ``` --- ### 六、启动服务 ```bash # 启动Celery worker(处理任务) celery -A proj worker -l info -P gevent # 启动Celery beat(定时任务) celery -A proj beat -l info # 启动Django服务 python manage.py runserver ``` --- ### 七、执行验证 1. **手动触发**:Admin界面勾选接口→执行"异步批量测试" 2. **定时任务**:自动执行每日批量测试 3. **任务监控**:通过`django_celery_results`模块查看任务结果 --- ### 关键特性说明 1. **异步并行**:使用Celery的`group`实现并行测试[^2] 2. **结果跟踪**:通过`django_celery_results`存储任务结果 3. **失败重试**:可添加`@task(retry=True, retry_backoff=30)`实现自动重试 4. **资源控制**:通过`task_acks_late=True`+`worker_prefetch_multiplier=1`防止内存溢出[^4] ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值