Celery是一個基於python開發的分佈式任務隊列,若是不瞭解請閱讀筆者上一篇博文Celery入門與進階,而作python WEB開發最爲流行的框架莫屬Django,可是Django的請求處理過程都是同步的沒法實現異步任務,若要實現異步任務處理須要經過其餘方式(前端的通常解決方案是ajax操做),然後臺Celery就是不錯的選擇。假若一個用戶在執行某些操做須要等待好久才返回,這大大下降了網站的吞吐量。下面將描述Django的請求處理大體流程(圖片來源於網絡):html
請求過程簡單說明:瀏覽器發起請求-->請求處理-->請求通過中間件-->路由映射-->視圖處理業務邏輯-->響應請求(template或response)前端
celery很容易集成到Django框架中,固然若是想要實現定時任務的話還須要安裝django-celery-beta插件,後面會說明。須要注意的是Celery4.0只支持Django版本>=1.8的,若是是小於1.8版本須要使用Celery3.1。python
新創建項目taskproj,目錄結構(每一個app下多了個tasks文件,用於定義任務):ajax
taskproj ├── app01 │ ├── __init__.py │ ├── apps.py │ ├── migrations │ │ └── __init__.py │ ├── models.py │ ├── tasks.py │ └── views.py ├── manage.py ├── taskproj │ ├── __init__.py │ ├── settings.py │ ├── urls.py │ └── wsgi.py └── templates
在項目目錄taskproj/taskproj/目錄下新建celery.py:redis
#!/usr/bin/env python3 # -*- coding:utf-8 -*- # Author:wd from __future__ import absolute_import, unicode_literals import os from celery import Celery os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'taskproj.settings') # 設置django環境 app = Celery('taskproj') app.config_from_object('django.conf:settings', namespace='CELERY') # 使用CELERY_ 做爲前綴,在settings中寫配置 app.autodiscover_tasks() # 發現任務文件每一個app下的task.py
taskproj/taskproj/__init__.py:數據庫
from __future__ import absolute_import, unicode_literals
from .celery import app as celery_app
__all__ = ['celery_app']
taskproj/taskproj/settings.pydjango
CELERY_BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis做爲消息中間件 CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,這裏使用redis CELERY_RESULT_SERIALIZER = 'json' # 結果序列化方案
進入項目的taskproj目錄啓動worker:json
celery worker -A taskproj -l debug
任務定義在每一個tasks文件中,app01/tasks.py:api
from __future__ import absolute_import, unicode_literals from celery import shared_task @shared_task def add(x, y): return x + y @shared_task def mul(x, y): return x * y
視圖中觸發任務瀏覽器
from django.http import JsonResponse from app01 import tasks # Create your views here. def index(request,*args,**kwargs): res=tasks.add.delay(1,3) #任務邏輯 return JsonResponse({'status':'successful','task_id':res.task_id})
訪問http://127.0.0.1:8000/index
若想獲取任務結果,能夠經過task_id使用AsyncResult獲取結果,還能夠直接經過backend獲取:
除了redis、rabbitmq能作結果存儲外,還可使用Django的orm做爲結果存儲,固然須要安裝依賴插件,這樣的好處在於咱們能夠直接經過django的數據查看到任務狀態,同時爲能夠制定更多的操做,下面介紹如何使用orm做爲結果存儲。
1.安裝
pip install django-celery-results
2.配置settings.py,註冊app
INSTALLED_APPS = ( ..., 'django_celery_results', )
4.修改backend配置,將redis改成django-db
#CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,這裏使用redis CELERY_RESULT_BACKEND = 'django-db' #使用django orm 做爲結果存儲
5.修改數據庫
python3 manage.py migrate django_celery_results
此時會看到數據庫會多建立:
固然你有時候須要對task表進行操做,如下源碼的表結構定義:
class TaskResult(models.Model): """Task result/status.""" task_id = models.CharField(_('task id'), max_length=255, unique=True) task_name = models.CharField(_('task name'), null=True, max_length=255) task_args = models.TextField(_('task arguments'), null=True) task_kwargs = models.TextField(_('task kwargs'), null=True) status = models.CharField(_('state'), max_length=50, default=states.PENDING, choices=TASK_STATE_CHOICES ) content_type = models.CharField(_('content type'), max_length=128) content_encoding = models.CharField(_('content encoding'), max_length=64) result = models.TextField(null=True, default=None, editable=False) date_done = models.DateTimeField(_('done at'), auto_now=True) traceback = models.TextField(_('traceback'), blank=True, null=True) hidden = models.BooleanField(editable=False, default=False, db_index=True) meta = models.TextField(null=True, default=None, editable=False) objects = managers.TaskResultManager() class Meta: """Table information.""" ordering = ['-date_done'] verbose_name = _('task result') verbose_name_plural = _('task results') def as_dict(self): return { 'task_id': self.task_id, 'task_name': self.task_name, 'task_args': self.task_args, 'task_kwargs': self.task_kwargs, 'status': self.status, 'result': self.result, 'date_done': self.date_done, 'traceback': self.traceback, 'meta': self.meta, } def __str__(self): return '<Task: {0.task_id} ({0.status})>'.format(self)
若是想要在django中使用定時任務功能一樣是靠beat完成任務發送功能,當在Django中使用定時任務時,須要安裝django-celery-beat插件。如下將介紹使用過程。
1.beat插件安裝
pip3 install django-celery-beat
2.註冊APP
INSTALLED_APPS = [ .... 'django_celery_beat', ]
3.數據庫變動
python3 manage.py migrate django_celery_beat
4.分別啓動woker和beta
celery -A proj beat -l info --scheduler django_celery_beat.schedulers:DatabaseScheduler #啓動beta 調度器使用數據庫 celery worker -A taskproj -l info #啓動woker
5.配置admin
urls.py
# urls.py from django.conf.urls import url from django.contrib import admin urlpatterns = [ url(r'^admin/', admin.site.urls), ]
6.建立用戶
python3 manage.py createsuperuser
7.登陸admin進行管理(地址http://127.0.0.1:8000/admin)而且還能夠看到咱們上次使用orm做爲結果存儲的表。
http://127.0.0.1:8000/admin/login/?next=/admin/
使用示例:
查看結果:
django-celery-beat插件本質上是對數據庫表變化檢查,一旦有數據庫表改變,調度器從新讀取任務進行調度,因此若是想本身定製的任務頁面,只須要操做beat插件的四張表就能夠了。固然你還能夠本身定義調度器,django-celery-beat插件已經內置了model,只須要進行導入即可進行orm操做,如下我用django reset api進行示例:
settings.py
INSTALLED_APPS = [ 'django.contrib.admin', 'django.contrib.auth', 'django.contrib.contenttypes', 'django.contrib.sessions', 'django.contrib.messages', 'django.contrib.staticfiles', 'app01.apps.App01Config', 'django_celery_results', 'django_celery_beat', 'rest_framework', ]
urls.py
urlpatterns = [ url(r'^admin/', admin.site.urls), url(r'^index$', views.index), url(r'^res$', views.get_res), url(r'^tasks$', views.TaskView.as_view({'get':'list'})), ]
views.py
from django_celery_beat.models import PeriodicTask #倒入插件model from rest_framework import serializers from rest_framework import pagination from rest_framework.viewsets import ModelViewSet class Userserializer(serializers.ModelSerializer): class Meta: model = PeriodicTask fields = '__all__' class Mypagination(pagination.PageNumberPagination): """自定義分頁""" page_size=2 page_query_param = 'p' page_size_query_param='size' max_page_size=4 class TaskView(ModelViewSet): queryset = PeriodicTask.objects.all() serializer_class = Userserializer permission_classes = [] pagination_class = Mypagination
訪問http://127.0.0.1:8000/tasks以下: