链客,专为开发者而生,有问必答!
此文章来自区块链技术社区,未经允许拒绝转载。
本章节我们重点在于实现,如何存储任务的结果.
我们将任务函数改为:
from celery_demo.celery import app
import time
加上app对象的task装饰器
此函数为任务函数
@app.task
def my_task():
print("正在紧张处理任务....")
time.sleep(5)
# 返回任务执行结果
return 100
此处需要用到额外包django_celery_results, 先安装包:
pip install django-celery-results
在celery_demo/settings.py中安装此应用:
INSTALLED_APPS = [
'django.contrib.admin',
'django.contrib.auth',
'django.contrib.contenttypes',
'django.contrib.sessions',
'django.contrib.messages',
'django.contrib.staticfiles',
'demo',
'**django_celery_results', # 注意此处应用名为下划线**
]
回到celery_demo/celery.py模块中,增加配置信息如下:
from celery import Celery
from django.conf import settings
import os
为celery设置环境变量
os.environ.setdefault(‘DJANGO_SETTINGS_MODULE’, ‘celery_demo.settings’)
创建应用
app = Celery(“demo”)
配置应用
app.conf.update(
# 配置broker, 这里我们用redis作为broker
BROKER_URL='redis://:332572@127.0.0.1:6379/1',
**# 使用项目数据库存储任务执行结果
CELERY_RESULT_BACKEND='django-db',**
)
设置app自动加载任务
从已经安装的app中查找任务
app.autodiscover_tasks(settings.INSTALLED_APPS)
创建django_celery_results应用所需数据库表, 执行迁移文件:
python manage.py migrate django_celery_results
我这里使用的是django默认的数据库sqlit, 执行迁移之后,会在数据库中创建一张用来存储任务结果的表()
再次从浏览器发送请求, 任务执行结束之后,将任务结果保存在数据库中:
django中使用celery简单介绍 (2)
本章节我们在django中去使用celery.创建项目celery_demo, 创建应用demo:
django-admin startproject celery_demo
python manage.py startapp demo
项目结构为:
在celery_demo模块中创建celery.py模块, 文件目录为:
celery.py模块内容为:
from celery import Celery
from django.conf import settings
import os
为celery设置环境变量
os.environ.setdefault(‘DJANGO_SETTINGS_MODULE’, ‘celery_demo.settings’)
创建应用
app = Celery(“demo”)
配置应用
app.conf.update(
# 配置broker, 这里我们用redis作为broker
BROKER_URL='redis://:332572@127.0.0.1:6379/1',
)
设置app自动加载任务
从已经安装的app中查找任务
app.autodiscover_tasks(settings.INSTALLED_APPS)
在应用demo包中创建tasks.py模块, 文件目录为:
我们在文件内创建一个任务函数my_task:
from celery_demo.celery import app
import time
加上app对象的task装饰器
此函数为任务函数
@app.task
def my_task():
print("任务开始执行....")
time.sleep(5)
print("任务执行结束....")
在views.py模块中创建视图index:
from django.shortcuts import render
from django.http import HttpResponse
from .tasks import my_task
def index(request):
将my_task任务加入到celery队列中
如果my_task函数有参数,可通过delay()传递
例如 my_task(a, b), my_task.delay(10, 20)
my_task.delay()
return HttpResponse("<h1>服务器返回响应内容!</h1>")
在celey_demo/settings.py配置视图路由:
from django.conf.urls import url
from django.contrib import admin
from demo.views import index
urlpatterns = [
url(r'^admin/', admin.site.urls),
url(r'^$', index),
]
创建worker等待处理celery队列中任务, 在终端执行命令:
celery -A celery_demo worker -l info
启动django测试服务器:
python manage.py runserver
django中使用celery简单介绍 (1)
Celery 是一个简单、灵活且可靠的,处理大量消息的分布式系统。
为什么需要这样的一个工具?
如果服务器端处理注册任务耗时比较长,客户端就会迟迟拿不到本次请求的结果,用户体验很不好。那么如何做更好一些?
我们可将耗时任务放到后台去执行,也就是异步执行。不会影响用户其他操作。如何实现异步执行任务呢?我们可使用celery. celery除了刚才所涉及到的异步执行任务之外,还可以实现定时处理某些任务。
Celery 是用 Python 编写的,但协议可以用任何语言实现。迄今,已有 Ruby 实现的 RCelery 、node.js 实现的 node-celery 以及一个 PHP 客户端。
celery是如何工作的呢?
我们将耗时的任务扔到celery的任务队列中,这个任务队列我们叫做broker,我们可以用redis, rabbitmq,数据库都可以扮演这个broker中间人的角色。然后由worker, 也就是真正从队列中拿走任务并处理的这个角色,我们可以指派worker来处理队列中的任务。