Django 2.1.7 Celery 4.3.0 在項目中使用Celery

原文連接:Django 2.1.7 Celery 4.3.0 在項目中使用Celerypython

相關篇章:redis


上一篇在講解Celery的配置中,提到將Celery的配置抽出到一個獨立的文件進行管理,以下:django

下面咱們再來看看,當task任務愈來愈多的時候,也應該要抽出來。bash

整理Celery模塊的目錄

在前面的目錄基礎上,再建立一個celery.py文件,而後咱們的文件結構以下:併發

調整各模塊文件的代碼

  • celery.py內容以下:
from celery import Celery
from celery_tasks import celeryconfig

## 使用增長配置的方式建立celery app
app = Celery('celery_tasks.tasks')

# 從單獨的配置模塊中加載配置
app.config_from_object(celeryconfig)

# 自動搜索任務
app.autodiscover_tasks(['celery_tasks'])
複製代碼
  • celeryconfig.py模塊內容以下:
from kombu import Exchange, Queue

# 設置結果存儲
CELERY_RESULT_BACKEND = 'redis://127.0.0.1:6379/9'

# 設置代理人broker
BROKER_URL = 'redis://127.0.0.1:6379/8'
複製代碼
  • tasks.py模塊內容以下:
from celery_tasks.celery import app as celery_app

# 建立任務函數
@celery_app.task
def my_task1():
    print("任務函數(my_task1)正在執行....")

@celery_app.task
def my_task2():
    print("任務函數(my_task2)正在執行....")

@celery_app.task
def my_task3():
    print("任務函數(my_task3)正在執行....")
複製代碼
  • 啓動worker: celery -A celery_tasks worker -l info -P eventlet

要注意:這裏是以Celery的包進行啓動,以前是使用tasks進行啓動的。 celery -A celery_tasks.tasks worker -l info -P eventletapp

啓動日誌以下:函數

(venv) F:\pythonProject\django-pratice>celery -A celery_tasks worker -l info -P eventlet

 -------------- celery@USC2VG2F9NPB650 v4.3.0 (rhubarb)
---- **** -----
--- * ***  * -- Windows-10-10.0.17763-SP0 2019-08-03 17:26:52
-- * - **** ---
- ** ---------- [config]
- ** ---------- .> app:         celery_tasks.tasks:0x2a98a1b7320
- ** ---------- .> transport:   redis://127.0.0.1:6379/8   # 設置的 broker
- ** ---------- .> results:     redis://127.0.0.1:6379/9    # 設置的結果存儲
- *** --- * --- .> concurrency: 12 (eventlet)                 # 併發的數量
-- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker)
--- ***** -----
 -------------- [queues]
                .> celery           exchange=celery(direct) key=celery


[tasks]     # 註冊的任務
  . celery_tasks.tasks.my_task1
  . celery_tasks.tasks.my_task2
  . celery_tasks.tasks.my_task3

[2019-08-03 17:26:52,822: INFO/MainProcess] Connected to redis://127.0.0.1:6379/8
[2019-08-03 17:26:52,872: INFO/MainProcess] mingle: searching for neighbors
[2019-08-03 17:26:54,073: INFO/MainProcess] mingle: all alone
[2019-08-03 17:26:54,196: INFO/MainProcess] celery@USC2VG2F9NPB650 ready.
[2019-08-03 17:26:54,230: INFO/MainProcess] pidbox: Connected to redis://127.0.0.1:6379/8.
複製代碼

下面來調用一下任務測試一下,打開另外一個終端,以下:測試

# 導入三個task任務
In [1]: from celery_tasks.tasks import my_task1,my_task2,my_task3

# 下面使用delay方法調用各個task任務
In [2]: my_task1.delay()
Out[2]: <AsyncResult: 20d3ee91-d101-477a-9326-6dba394d8bda>

In [3]: my_task1.delay()
Out[3]: <AsyncResult: b069c036-ede8-4061-a490-5a63131871ab>

In [4]: my_task2.delay()
Out[4]: <AsyncResult: 44e9570a-d5c1-445b-92cc-885d0752a5a7>

In [5]: my_task3.delay()
Out[5]: <AsyncResult: 71ded829-2270-418c-afbf-72fb39a5169a>

In [6]: 
複製代碼

回到celery的日誌終端,查看任務執行信息,以下:ui

相關文章
相關標籤/搜索