01-Flink運行架構

 

1.flink運行時的組件

 

 

 

 

Flink 運行時架構主要包括四個不一樣的組件,它們會在運行流處理應用程序時協同工做:redis

 

做業管理器(JobManager)、資源管理器(ResourceManager)、任務管理器(TaskManager),編程

 

以及分發器(Dispatcher)。由於 Flink 是用 Java 和 Scala 實現的,因此全部組件都會運行在緩存

 

Java 虛擬機上。每一個組件的職責以下:數據結構

 

1.1做業管理器(jobmanager)

 

  1. 控制一個應用程序執行的主進程,也就是說,每一個應用程序都會被一個不一樣的JobManager 所控制執行。
  2. JobManager 會先接收到要執行的應用程序, 這個應用程序會包括:做業圖(JobGraph)、邏輯數據流圖(logical dataflow graph)和打包了全部的類、庫和其它資源的 JAR 包(也就是咱們所說的job做業提交)。
  3. jobManager 會把 JobGraph 轉換成一個物理層面的數據流圖,這個圖被叫作「執行圖」(ExecutionGraph),包含了全部能夠併發執行的任務。
  4. JobManager 會向資源管理器(ResourceManager)請求執行任務必要的資源,也就是任務管理器(TaskManager)上的插槽( slot)。一旦它獲取到了足夠的資源,就會將執行圖分發到真正運行它們的TaskManager 上。而在運行過程當中, JobManager 會負責全部須要中央協調的操做,好比說檢查點(checkpoints)的協調。

 

1.2任務管理器(task manager)

 

  1. Flink 中的工做進程。一般在 Flink 中會有多個 TaskManager 運行,每個 TaskManager都包含了必定數量的插槽(slots)。插槽的數量限制了 TaskManager 可以執行的任務數量。
  2. 啓動以後, TaskManager 會向資源管理器註冊它的插槽;收到資源管理器的指令後,TaskManager 就會將一個或者多個插槽提供給 JobManager 調用。 JobManager 就能夠向插槽分配任務(tasks)來執行了。
  3. 在執行過程當中,一個 TaskManager 能夠跟其它運行同一應用程序的 TaskManager 交換數據。

 

1.3資源管理器(resource manager)

 

  1. 主要負責管理任務管理器(TaskManager)的插槽(slot), TaskManger 插槽是 Flink 中定義的處理資源單元。
  2. Flink 爲不一樣的環境和資源管理工具提供了不一樣資源管理器,好比YARN、 Mesos、 K8s,以及 standalone 部署。
  3. 當 JobManager 申請插槽資源時, ResourceManager會將有空閒插槽的 TaskManager 分配給 JobManager。若是 ResourceManager 沒有足夠的插槽來知足 JobManager 的請求,它還能夠向資源提供平臺發起會話,以提供啓動 TaskManager進程的容器。另外, ResourceManager 還負責終止空閒的 TaskManager,釋放計算資源。

 

1.4分發器(dispatcher)

 

  1. 能夠跨做業運行,它爲應用提交提供了 REST 接口。
  2. 當一個應用被提交執行時,分發器就會啓動並將應用移交給一個 JobManager。因爲是 REST 接口,因此 Dispatcher 能夠做爲集羣的一個 HTTP 接入點,這樣就可以不受防火牆阻擋。
  3. Dispatcher 也會啓動一個 Web UI,用來方便地展現和監控做業執行的信息。
  4.  Dispatcher 在架構中可能並非必需的,這取決於應用提交運行的方式。

 

 

2.任務提交流程

 

 

 

上圖是從一個較爲高層級的視角,來看應用中各組件的交互協做。架構

 

 

  1. 首先     經過Rest接口提交給了分發器dispatcher
  2. dispatcher啓動jobmanager,而且將應用交給jobmanager
  3. jobmanager向ResourceManager申請資源
  4. ResourceManger就會啓動taskmanager,空閒的slots就會向ResourceManager註冊
  5. ResourceManager會對taskmanager發出提供slot的指令
  6. taskmanager與jobmanager進行通訊(心跳通訊)
  7. taskmanager提供slots給jobmanager
  8. jobmanager給slots分配任務
  9. 不一樣的taskmanager在執行任務時,會根據須要交換數據

 

 

若是部署的集羣環境不一樣(例如 YARN, Mesos, Kubernetes, standalone 等),其中一些步驟能夠被省略,或是有些組件會運行在同一個 JVM 進程中。併發

 

具體地,若是咱們將 Flink 集羣部署到 YARN 上,那麼就會有以下的提交流程:app

 

 

 

 

 

 

 

  1. Flink 任務提交後, Client 向 HDFS 上傳 Flink 的 Jar 包和配置
  2. 以後向 YarnResourceManager 提交任務, ResourceManager(YARN的資源管理器) 分配 Container 資源並通知對應的NodeManager 啓動 ApplicationMaster, ApplicationMaster 啓動後加載hdfs上的 Flink 的 Jar 包和配置構建環境
  3. 而後啓動 JobManager,以後 ApplicationMaster 向 ResourceManager申 請 資 源 啓 動 TaskManager
  4. ResourceManager 分 配 Container 資 源 後 , 由ApplicationMaster 通 知 資 源 所 在 節 點 的 NodeManager 啓 動 TaskManager ,NodeManager 加載 Flink 的 Jar 包和配置構建環境並啓動 TaskManager,
  5.  TaskManager啓動後向 JobManager 發送心跳包,並等待 JobManager 向其分配任務。

 

3.任務調度流程

 

 

 

 

 

 

 

  1. flink程序代碼,編譯打包後,會先生成初始的邏輯數據流圖(Dataflow graph)
  2. 經過提交任務的客戶端(client),提交給dispatcher或者resourcemanager(flink on yarn)。最終是給到jobmanager。
  3. jobmanager將Dataflow graph 轉換爲可執行的execution graph(可執行的數據流圖)。發送給全部的taskmanager
  4. 每個taskmanager都有task slot。slots並行執行

 

當 Flink 集 羣 啓 動 後 , 首 先 會 啓 動 一 個 JobManger 和 一 個 或 多 個 的分佈式

 

TaskManager。由 Client 提交任務給 JobManager, JobManager 再調度任務到各個工具

 

TaskManager 去執行,而後 TaskManager 將心跳和統計信息彙報給 JobManager。大數據

 

TaskManager 之間以流的形式進行數據的傳輸。上述三者均爲獨立的 JVM 進程。

 

Client 爲提交 Job 的客戶端,能夠是運行在任何機器上(與 JobManager 環境

 

連通便可)。提交 Job 後, Client 能夠結束進程( Streaming 的任務),也能夠不

 

結束並等待結果返回。

 

JobManager 主 要 負 責 調 度 Job 並 協 調 Task 作 checkpoint, 職 責 上 很 像

 

Storm 的 Nimbus。從 Client 處接收到 Job 和 JAR 包等資源後,會生成優化後的

 

執行計劃,並以 Task 的單元調度到各個 TaskManager 去執行。

 

TaskManager 在啓動的時候就設置好了槽位數( Slot),每一個 slot 能啓動一個

 

Task, Task 爲線程。從 JobManager 處接收須要部署的 Task,部署啓動後,與自

 

己的上游創建 Netty 鏈接,接收數據並處理。

 

 

4.TaskManager與Slots

 

      每一個 task slot 表示 TaskManager 擁有資源的一個固定大小的子集。假如一個TaskManager 有三個 slot,那麼它會將其管理的內存分紅三份給各個 slot。資源 slot化意味着一個 subtask 將不須要跟來自其餘 job 的 subtask 競爭被管理的內存,取而代之的是它將擁有必定數量的內存儲備。須要注意的是,這裏不會涉及到 CPU 的隔離, slot 目前僅僅用來隔離 task 的受管理的內存。

 

      經過調整 task slot 的數量,容許用戶定義 subtask 之間如何互相隔離。若是一個TaskManager 一個 slot,那將意味着每一個 task group 運行在獨立的 JVM 中(該 JVM多是經過一個特定的容器啓動的),而一個 TaskManager 多個 slot 意味着更多的subtask 能夠共享同一個 JVM。而在同一個 JVM 進程中的 task 將共享 TCP 鏈接(基於多路複用)和心跳消息。它們也可能共享數據集和數據結構,所以這減小了每一個task 的負載。

 

 

 

  1. flink中每個TaskManager都是一個JVM進程,它可能在獨立的線程上執行一個或者多個subtask
  2. 爲了控制一個TaskManager能接受多少個task,Taskmanager經過task slot來進行控制(一個Taskmanager至少有一個slot)
  3. 每臺機子設置的slot數量,一般能夠設置爲cpu的線程數
  4. 默認狀況下, Flink 容許子任務共享 slot,即便它們是不一樣任務的子任務(前提是它們來自同一個 job) 。 這樣的結果是,一個 slot 能夠保存做業的整個管道。
  5. Task Slot 是靜態的概念,是指 TaskManager 具備的併發執行能力

 

     

 

能夠經過參數 taskmanager.numberOfTaskSlots 進行配置; 而並行度 parallelism 是動態概念,即 TaskManager 運行程序時實際使用的併發能力,能夠經過參數 parallelism.default進行配置。也就是說,假設一共有 3 個 TaskManager,每個 TaskManager 中的分配 3 個TaskSlot,也就是每一個 TaskManager 能夠接收 3 個 task,一共 9 個 TaskSlot,若是咱們設置 parallelism.default=1,即運行程序默認的並行度爲 1, 9 個 TaskSlot 只用了 1個,有 8 個空閒,所以,設置合適的並行度才能提升效率。

 

 

5.程序與數據流(DataFlow)

 

 

 

全部的 Flink 程序都是由三部分組成的: Source 、 Transformation 和 Sink。

 

Source 負責讀取數據源, Transformation 利用各類算子進行處理加工, Sink 負責輸出。

 

 

在運行時, Flink 上運行的程序會被映射成「邏輯數據流」( dataflows) ,它包含了這三部分。 每個 dataflow 以一個或多個 sources 開始以一個或多個 sinks 結束。 dataflow 相似於任意的有向無環圖( DAG)。在大部分狀況下,程序中的轉換運算( transformations) 跟 dataflow 中的算子(operator) 是一一對應的關係,但有時候,一個 transformation 可能對應多個 operator。

 

 

6.執行圖(ExecutionGraph)

 

       由 Flink 程序直接映射成的數據流圖是 StreamGraph,也被稱爲邏輯流圖,由於它們表示的是計算邏輯的高級視圖。爲了執行一個流處理程序, Flink 須要將邏輯流圖轉換爲物理數據流圖(也叫執行圖) ,詳細說明程序的執行方式。

 

 

Flink 中的執行圖能夠分紅四層: StreamGraph -> JobGraph -> ExecutionGraph ->物理執行圖。

 

  1. StreamGraph:是根據用戶經過 Stream API 編寫的代碼生成的最初的圖。用來表示程序的拓撲結構。
  2. JobGraph: StreamGraph 通過優化後生成了 JobGraph,提交給 JobManager 的數據結構。主要的優化爲,將多個符合條件的節點 chain 在一塊兒做爲一個節點,這樣能夠減小數據在節點之間流動所須要的序列化/反序列化/傳輸消耗。
  3. ExecutionGraph : JobManager 根 據 JobGraph 生 成 ExecutionGraph 。ExecutionGraph 是 JobGraph 的並行化版本,是調度層最核心的數據結構。
  4. 物理執行圖: JobManager 根據 ExecutionGraph 對 Job 進行調度後,在各個TaskManager 上部署 Task 後造成的「圖」,並非一個具體的數據結構。

 

 

 

 

 

 

7.並行度(Parallelism)

 

Flink 程序的執行具備並行、分佈式的特性。

 

在執行過程當中,一個流( stream) 包含一個或多個分區( stream partition) ,而每個算子( operator)能夠包含一個或多個子任務( operator subtask) ,這些子任務在不一樣的線程、不一樣的物理機或不一樣的容器中彼此互不依賴地執行。

 

一個特定算子的子任務( subtask) 的個數被稱之爲其並行度( parallelism) 。

 

通常狀況下, 一個流程序的並行度,能夠認爲就是其全部算子中最大的並行度。一

 

個程序中,不一樣的算子可能具備不一樣的並行度。

 

尚硅谷大數據技術之 Flink

 

      

 

 

 

 

 

Stream 在算子之間傳輸數據的形式能夠是 one-to-one(forwarding)的模式也能夠

 

是 redistributing 的模式,具體是哪種形式,取決於算子的種類。

 

 

One-to-one: stream(好比在 source 和 map operator 之間)維護着分區以及元素的

 

順序。那意味着 map 算子的子任務看到的元素的個數以及順序跟 source 算子的子

 

任務生產的元素的個數、順序相同, map、 fliter、 flatMap 等算子都是 one-to-one 的

 

對應關係。(PS.相似於 spark 中的窄依賴)

 

Redistributing: stream(map()跟 keyBy/window 之間或者 keyBy/window 跟 sink

 

之間)的分區會發生改變。每個算子的子任務依據所選擇的 transformation 發送數

 

據到不一樣的目標任務。例如, keyBy() 基於 hashCode 重分區、 broadcast 和 rebalance

 

會隨機從新分區,這些算子都會引發 redistribute 過程,而 redistribute 過程就相似於

 

Spark 中的 shuffle 過程。(PS.相似於 spark 中的寬依賴)

 

 

8.任務鏈(Operator Chains)

 

相同並行度的 one to one 操做, Flink 這樣相連的算子連接在一塊兒造成一個 task,原來的算子成爲裏面的一部分。將算子連接成 task 是很是有效的優化:它能減小線程之間的切換和基於緩存區的數據交換,在減小時延的同時提高吞吐量。連接的行爲能夠在編程 API 中進行指定。

 

 

相關文章
相關標籤/搜索