原生celery,非djcelery模塊,全部演示均基於Django2.0html
celery是一個基於python開發的簡單、靈活且可靠的分佈式任務隊列框架,支持使用任務隊列的方式在分佈式的機器/進程/線程上執行任務調度。採用典型的生產者-消費者模型,主要由三部分組成:前端
個人異步使用場景爲項目上線:前端web上有個上線按鈕,點擊按鈕後發請求給後端,後端執行上線過程要5分鐘,後端在接收到請求後把任務放入隊列異步執行,同時立刻返回給前端一個任務執行中的結果。若果沒有異步執行會怎麼樣呢?同步的狀況就是執行過程當中前端一直在等後端返回結果,頁面轉呀轉的就轉超時了。python
1.安裝rabbitmq,這裏咱們使用rabbitmq做爲broker,安裝完成後默認啓動了,也不須要其餘任何配置git
# apt-get install rabbitmq-server 複製代碼
2.安裝celerygithub
# pip3 install celery 複製代碼
3.celery用在django項目中,django項目目錄結構(簡化)以下web
website/
|-- deploy
| |-- admin.py
| |-- apps.py
| |-- __init__.py
| |-- models.py
| |-- tasks.py
| |-- tests.py
| |-- urls.py
| `-- views.py
|-- manage.py
|-- README
`-- website
|-- celery.py
|-- __init__.py
|-- settings.py
|-- urls.py
`-- wsgi.py
複製代碼
4.建立website/celery.py
主文件redis
from __future__ import absolute_import, unicode_literals import os from celery import Celery, platforms # set the default Django settings module for the 'celery' program. os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'website.settings') app = Celery('website') # Using a string here means the worker don't have to serialize # the configuration object to child processes. # - namespace='CELERY' means all celery-related configuration keys # should have a `CELERY_` prefix. app.config_from_object('django.conf:settings', namespace='CELERY') # Load task modules from all registered Django app configs. app.autodiscover_tasks() # 容許root 用戶運行celery platforms.C_FORCE_ROOT = True @app.task(bind=True) def debug_task(self): print('Request: {0!r}'.format(self.request)) 複製代碼
5.在website/__init__.py
文件中增長以下內容,確保django啓動的時候這個app可以被加載到django
from __future__ import absolute_import # This will make sure the app is always imported when # Django starts so that shared_task will use this app. from .celery import app as celery_app __all__ = ['celery_app'] 複製代碼
6.各應用建立tasks.py文件,這裏爲deploy/tasks.py
後端
from __future__ import absolute_import from celery import shared_task @shared_task def add(x, y): return x + y 複製代碼
7.views.py中引用使用這個tasks異步處理bash
from deploy.tasks import add
def post(request):
result = add.delay(2, 3)
複製代碼
result.ready()
來判斷任務是否完成處理result.get(timeout=1)
能夠從新拋出異常result.traceback
能夠獲取原始的回溯信息8.啓動celery
# celery -A website worker -l info 複製代碼
9.這樣在調用post這個方法時,裏邊的add就能夠異步處理了
定時任務的使用場景就很廣泛了,好比我須要定時發送報告給老闆~
1.website/celery.py
文件添加以下配置以支持定時任務crontab
from celery.schedules import crontab app.conf.update( CELERYBEAT_SCHEDULE = { 'sum-task': { 'task': 'deploy.tasks.add', 'schedule': timedelta(seconds=20), 'args': (5, 6) } 'send-report': { 'task': 'deploy.tasks.report', 'schedule': crontab(hour=4, minute=30, day_of_week=1), } } ) 複製代碼
定義了兩個task:
timedelta是datetime中的一個對象,須要from datetime import timedelta
引入,有以下幾個參數
days
:天seconds
:秒microseconds
:微妙milliseconds
:毫秒minutes
:分hours
:小時crontab的參數有:
month_of_year
:月份day_of_month
:日期day_of_week
:周hour
:小時minute
:分鐘2.deploy/tasks.py
文件添加report方法:
@shared_task def report(): return 5 複製代碼
3.啓動celery beat,celery啓動了一個beat進程一直在不斷的判斷是否有任務須要執行
# celery -A website beat -l info 複製代碼
1.若是你同時使用了異步任務和計劃任務,有一種更簡單的啓動方式celery -A website worker -b -l info
,可同時啓動worker和beat 2.若是使用的不是rabbitmq作隊列那麼須要在主配置文件中website/celery.py
配置broker和backend,以下:
# redis作MQ配置 app = Celery('website', backend='redis', broker='redis://localhost') # rabbitmq作MQ配置 app = Celery('website', backend='amqp', broker='amqp://admin:admin@localhost') 複製代碼
3.celery不能用root用戶啓動的話須要在主配置文件中添加platforms.C_FORCE_ROOT = True
4.celery在長時間運行後可能出現內存泄漏,須要添加配置CELERYD_MAX_TASKS_PER_CHILD = 10
,表示每一個worker執行了多少個任務就死掉
相關文章推薦閱讀