Azure Data Factory 系列博客:html
管道在Azure Data Factory中的運行(命名爲Pipeline run)定義爲管道執行的一個實例(instance of pipeline execution ),每一次管道執行(pipeline run)都有一個惟一的GUID來標識。用戶能夠定義一個觸發器,好比,制定定時計劃,觸發器在特定的時間點被激發,自動執行管道。固然,也能夠手動執行管道,本文重點關注觸發器執行。htm
在管道執行時,能夠把argument傳遞給管道中定義的parameters,這樣管道就能夠根據parameters的值動態調整Activity的執行路徑。blog
觸發器表明一個處理單元,以肯定合適開始執行管道,數據工廠支持三種類型的觸發器:事件
管道和觸發器具備多對多的關係,多個觸發器能夠觸發一個管道,一個觸發器能夠觸發多個管道,所以,觸發器能夠在多個管道中共享,當修改觸發器時,全部引用該觸發器的Pipeline都會同步修改。ip
計劃觸發器(Schedule trigger)按照時間計劃來運行管道,本文重點關注計劃觸發器,這能夠實如今特定的時間點,按照特定的頻率和特定的時間間隔來執行管道,實現數據工廠的自動化運行。ci
在建立計劃觸發器時,須要設置計劃觸發器的屬性:文檔
Step1:新建觸發器get
在管道中,點擊Trigger,選擇「New/Edit」同步
Step2:設置觸發器的屬性博客
打開「New trigger」界面,從Type列表中選擇Schedule,建立Schedule Trigger,Start date默認值是當前的時間,表示trigger從當前時間開始有效;若是設置「Specify an End Date」,那麼在End date以後,計劃觸發器不會再次激發Pipilne的執行。在 Activated 屬性中選擇「Yes」,表示計劃觸發器從建立開始是活躍的。
Step3:發佈到數據工廠
把Trigger建立完成以後,以後把Pipeline的更新發布到數據工廠,觸發器纔會按照計劃來執行管道。
點擊「Publish all」按鈕,把Pipeline的修改發佈到數據工廠,在把更新發布到數據工廠以前,觸發器不會啓動觸發器,那麼管道中的Activity也不會按照計劃來運行。
數據工廠會記錄Pipeline的每個次執行的數據,在數據工廠的UI界面中,打開「Monitor」選項卡,打開的界面以下圖所示,點擊「Pipeline runs」,能夠查看管道的執行記錄;點擊「Trigger runs」,能夠查看觸發器執行的記錄,
參考文檔: