Celery筆記

異步任務神器 Celery 簡明筆記

在程序的運行過程當中,咱們常常會碰到一些耗時耗資源的操做,爲了不它們阻塞主程序的運行,咱們常常會採用多線程或異步任務。好比,在 Web 開發中,對新用戶的註冊,咱們一般會給他發一封激活郵件,而發郵件是個 IO 阻塞式任務,若是直接把它放到應用當中,就須要等郵件發出去以後才能進行下一步操做,此時用戶只能等待再等待。更好的方式是在業務邏輯中觸發一個發郵件的異步任務,而主程序能夠繼續往下運行。python

Celery 是一個強大的分佈式任務隊列,它可讓任務的執行徹底脫離主程序,甚至能夠被分配到其餘主機上運行。咱們一般使用它來實現異步任務(async task)和定時任務(crontab)。它的架構組成以下圖:git

Celery_framework

能夠看到,Celery 主要包含如下幾個模塊:github

  • 任務模塊 Task包含異步任務和定時任務。其中,異步任務一般在業務邏輯中被觸發併發往任務隊列,而定時任務由 Celery Beat 進程週期性地將任務發往任務隊列
  • 消息中間件 BrokerBroker,即爲任務調度隊列,接收任務生產者發來的消息(即任務),將任務存入隊列。Celery 自己不提供隊列服務,官方推薦使用 RabbitMQ 和 Redis 等。
  • 任務執行單元 WorkerWorker 是執行任務的處理單元,它實時監控消息隊列,獲取隊列中調度的任務,並執行它
  • 任務結果存儲 BackendBackend 用於存儲任務的執行結果,以供查詢。同消息中間件同樣,存儲也可以使用 RabbitMQ, Redis 和 MongoDB 等。

異步任務

使用 Celery 實現異步任務主要包含三個步驟:redis

  1. 建立一個 Celery 實例
  2. 啓動 Celery Worker
  3. 應用程序調用異步任務

快速入門

爲了簡單起見,對於 Broker 和 Backend,這裏都使用 redis。在運行下面的例子以前,請確保 redis 已正確安裝,並開啓 redis 服務,固然,celery 也是要安裝的。能夠使用下面的命令來安裝 celery 及相關依賴:多線程

 

建立 Celery 實例

將下面的代碼保存爲文件 tasks.py架構

上面的代碼作了幾件事:併發

  • 建立了一個 Celery 實例 app,名稱爲 my_task
  • 指定消息中間件用 redis,URL 爲 redis://127.0.0.1:6379
  • 指定存儲用 redis,URL 爲 redis://127.0.0.1:6379/0
  • 建立了一個 Celery 任務 add,當函數被 @app.task 裝飾後,就成爲可被 Celery 調度的任務;

啓動 Celery Worker

在當前目錄,使用以下方式啓動 Celery Worker:app

其中:框架

  • 參數 -A 指定了 Celery 實例的位置,本例是在 tasks.py 中,Celery 會自動在該文件中尋找 Celery 對象實例,固然,咱們也能夠本身指定,在本例,使用 -A tasks.app
  • 參數 --loglevel 指定了日誌級別,默認爲 warning,也能夠使用 -l info 來表示;

在生產環境中,咱們一般會使用 Supervisor 來控制 Celery Worker 進程。

啓動成功後,控制檯會顯示以下輸出:

celery

調用任務

如今,咱們能夠在應用程序中使用 delay() 或 apply_async() 方法來調用任務。

在當前目錄打開 Python 控制檯,輸入如下代碼:

在上面,咱們從 tasks.py 文件中導入了 add 任務對象,而後使用 delay() 方法將任務發送到消息中間件(Broker),Celery Worker 進程監控到該任務後,就會進行執行。咱們將窗口切換到 Worker 的啓動窗口,會看到多了兩條日誌:

這說明任務已經被調度並執行成功。

另外,咱們若是想獲取執行後的結果,能夠這樣作:

在上面,咱們是在 Python 的環境中調用任務。事實上,咱們一般在應用程序中調用任務。好比,將下面的代碼保存爲 client.py:

運行命令 $ python client.py,能夠看到,雖然任務函數 add 須要等待 5 秒才返回執行結果,但因爲它是一個異步任務,不會阻塞當前的主程序,所以主程序會往下執行 print 語句,打印出結果。

使用配置

在上面的例子中,咱們直接把 Broker 和 Backend 的配置寫在了程序當中,更好的作法是將配置項統一寫入到一個配置文件中,一般咱們將該文件命名爲 celeryconfig.py。Celery 的配置比較多,能夠在官方文檔查詢每一個配置項的含義。

下面,咱們再看一個例子。項目結構以下:

__init__.py 代碼以下:

celeryconfig.py 代碼以下:

task1.py 代碼以下:

task2.py 代碼以下:

client.py 代碼以下:

如今,讓咱們啓動 Celery Worker 進程,在項目的根目錄下執行下面命令:

接着,運行 $ python client.py,它會發送兩個異步任務到 Broker,在 Worker 的窗口咱們能夠看到以下輸出:

 

delay 和 apply_async

在前面的例子中,咱們使用 delay() 或 apply_async() 方法來調用任務。事實上,delay方法封裝了 apply_async,以下:

也就是說,delay 是使用 apply_async 的快捷方式。apply_async 支持更多的參數,它的通常形式以下:

apply_async 經常使用的參數以下:

  • countdown:指定多少秒後執行任務
  • eta (estimated time of arrival):指定任務被調度的具體時間,參數類型是 datetime
  • xpires:任務過時時間,參數類型能夠是 int,也能夠是 datetime

 

更多的參數列表能夠在官方文檔中查看。

定時任務

Celery 除了能夠執行異步任務,也支持執行週期性任務(Periodic Tasks),或者說定時任務。Celery Beat 進程經過讀取配置文件的內容,週期性地將定時任務發往任務隊列。

讓咱們看看例子,項目結構以下:

__init__.py 代碼以下:

celeryconfig.py 代碼以下:

task1.py 代碼以下:

 

task2.py 代碼以下:

如今,讓咱們啓動 Celery Worker 進程,在項目的根目錄下執行下面命令:

接着,啓動 Celery Beat 進程,定時將任務發送到 Broker,在項目根目錄下執行下面命令:

以後,在 Worker 窗口咱們能夠看到,任務 task1 每 30 秒執行一次,而 task2 天天早上 9 點 50 分執行一次。

在上面,咱們用兩個命令啓動了 Worker 進程和 Beat 進程,咱們也能夠將它們放在一個命令中:

Celery 週期性任務也有多個配置項,可參考官方文檔

參考資料

相關文章
相關標籤/搜索