Spark入門實戰系列--4.Spark運行架構

 【注】該系列文章以及使用到安裝包/測試數據 能夠在《傾情大奉送--Spark入門實戰系列》獲取

 1Spark運行架構

1.1 術語定義

lApplicationSpark Application的概念和Hadoop MapReduce中的相似,指的是用戶編寫的Spark應用程序,包含了一個Driver 功能的代碼和分佈在集羣中多個節點上運行的Executor代碼;html

lDriverSpark中的Driver即運行上述Applicationmain()函數而且建立SparkContext,其中建立SparkContext的目的是爲了準備Spark應用程序的運行環境。在Spark中由SparkContext負責和ClusterManager通訊,進行資源的申請、任務的分配和監控等;當Executor部分運行完畢後,Driver負責將SparkContext關閉。一般用SparkContext表明Drivejava

lExecutorApplication運行在Worker 節點上的一個進程,該進程負責運行Task,而且負責將數據存在內存或者磁盤上,每一個Application都有各自獨立的一批Executor。在Spark on Yarn模式下,其進程名稱爲CoarseGrainedExecutorBackend,相似於Hadoop MapReduce中的YarnChild。一個CoarseGrainedExecutorBackend進程有且僅有一個executor對象,它負責將Task包裝成taskRunner,並從線程池中抽取出一個空閒線程運行Task。每一個CoarseGrainedExecutorBackend能並行運行Task的數量就取決於分配給它的CPU的個數了;web

lCluster Manager:指的是在集羣上獲取資源的外部服務,目前有:shell

Ø  StandaloneSpark原生的資源管理,由Master負責資源的分配;apache

Ø  Hadoop Yarn:由YARN中的ResourceManager負責資源的分配;編程

lWorker:集羣中任何能夠運行Application代碼的節點,相似於YARN中的NodeManager節點。在Standalone模式中指的就是經過Slave文件配置的Worker節點,在Spark on Yarn模式中指的就是NodeManager節點;緩存

l做業(Job:包含多個Task組成的並行計算,每每由Spark Action催生,一個JOB包含多個RDD及做用於相應RDD上的各類Operation安全

l階段(Stage:每一個Job會被拆分不少組Task,每組任務被稱爲Stage,也可稱TaskSet,一個做業分爲多個階段;網絡

l任務(Task: 被送到某個Executor上的工做任務;多線程

clip_image002

1.2 Spark運行基本流程

Spark運行基本流程參見下面示意圖

1.   構建Spark Application的運行環境(啓動SparkContext),SparkContext向資源管理器(能夠是StandaloneMesosYARN)註冊並申請運行Executor資源;

2.   資源管理器分配Executor資源並啓動StandaloneExecutorBackendExecutor運行狀況將隨着心跳發送到資源管理器上;

3.   SparkContext構建成DAG圖,將DAG圖分解成Stage,並把Taskset發送給Task SchedulerExecutorSparkContext申請TaskTask SchedulerTask發放給Executor運行同時SparkContext將應用程序代碼發放給Executor

4.   TaskExecutor上運行,運行完畢釋放全部資源。

clip_image004

Spark運行架構特色:

l每一個Application獲取專屬的executor進程,該進程在Application期間一直駐留,並以多線程方式運行tasks。這種Application隔離機制有其優點的,不管是從調度角度看(每一個Driver調度它本身的任務),仍是從運行角度看(來自不一樣ApplicationTask運行在不一樣的JVM中)。固然,這也意味着Spark Application不能跨應用程序共享數據,除非將數據寫入到外部存儲系統。

lSpark與資源管理器無關,只要可以獲取executor進程,並能保持相互通訊就能夠了。

l提交SparkContextClient應該靠近Worker節點(運行Executor的節點),最好是在同一個Rack裏,由於Spark Application運行過程當中SparkContextExecutor之間有大量的信息交換;若是想在遠程集羣中運行,最好使用RPCSparkContext提交給集羣,不要遠離Worker運行SparkContext

lTask採用了數據本地性和推測執行的優化機制。

1.2.1 DAGScheduler

DAGScheduler把一個Spark做業轉換成StageDAGDirected Acyclic Graph有向無環圖),根據RDDStage之間的關係找出開銷最小的調度方法,而後把StageTaskSet的形式提交給TaskScheduler,下圖展現了DAGScheduler的做用:

clip_image006

1.2.2 TaskScheduler

DAGScheduler決定了運行Task的理想位置,並把這些信息傳遞給下層的TaskScheduler。此外,DAGScheduler還處理因爲Shuffle數據丟失致使的失敗,這有可能須要從新提交運行以前的Stage(非Shuffle數據丟失致使的Task失敗由TaskScheduler處理)。

TaskScheduler維護全部TaskSet,當ExecutorDriver發送心跳時,TaskScheduler會根據其資源剩餘狀況分配相應的Task。另外TaskScheduler還維護着全部Task的運行狀態,重試失敗的Task。下圖展現了TaskScheduler的做用:

clip_image008

在不一樣運行模式中任務調度器具體爲:

l  Spark on Standalone模式爲TaskScheduler

l  YARN-Client模式爲YarnClientClusterScheduler

l  YARN-Cluster模式爲YarnClusterScheduler

1.3 RDD運行原理

那麼 RDDSpark架構中是如何運行的呢?總高層次來看,主要分爲三步:

1.建立 RDD 對象

2.DAGScheduler模塊介入運算,計算RDD之間的依賴關係。RDD之間的依賴關係就造成了DAG

3.每個JOB被分爲多個Stage,劃分Stage的一個主要依據是當前計算因子的輸入是不是肯定的,若是是則將其分在同一個Stage,避免多個Stage之間的消息傳遞開銷。

clip_image010 

如下面一個按 A-Z 首字母分類,查找相同首字母下不一樣姓名總個數的例子來看一下 RDD 是如何運行起來的。

clip_image011

步驟 1 :建立 RDD  上面的例子除去最後一個 collect 是個動做,不會建立 RDD 以外,前面四個轉換都會建立出新的 RDD 。所以第一步就是建立好全部 RDD( 內部的五項信息 )

步驟 2 :建立執行計劃 Spark 會盡量地管道化,並基因而否要從新組織數據來劃分 階段 (stage) ,例如本例中的 groupBy() 轉換就會將整個執行計劃劃分紅兩階段執行。最終會產生一個 DAG(directed acyclic graph ,有向無環圖 ) 做爲邏輯執行計劃。

clip_image012

步驟 3 :調度任務  將各階段劃分紅不一樣的 任務 (task) ,每一個任務都是數據和計算的合體。在進行下一階段前,當前階段的全部任務都要執行完成。由於下一階段的第一個轉換必定是從新組織數據的,因此必須等當前階段全部結果數據都計算出來了才能繼續。

假設本例中的 hdfs://names 下有四個文件塊,那麼 HadoopRDD partitions 就會有四個分區對應這四個塊數據,同時 preferedLocations 會指明這四個塊的最佳位置。如今,就能夠建立出四個任務,並調度到合適的集羣結點上。

clip_image014

 

2Spark在不一樣集羣中的運行架構

Spark注重創建良好的生態系統,它不只支持多種外部文件存儲系統,提供了多種多樣的集羣運行模式。部署在單臺機器上時,既能夠用本地(Local)模式運行,也可使用僞分佈式模式來運行;當以分佈式集羣部署的時候,能夠根據本身集羣的實際狀況選擇Standalone模式(Spark自帶的模式)、YARN-Client模式或者YARN-Cluster模式。Spark的各類運行模式雖然在啓動方式、運行位置、調度策略上各有不一樣,但它們的目的基本都是一致的,就是在合適的位置安全可靠的根據用戶的配置和Job的須要運行和管理Task

2.1 Spark on Standalone運行過程

Standalone模式是Spark實現的資源調度框架,其主要的節點有Client節點、Master節點和Worker節點。其中Driver既能夠運行在Master節點上中,也能夠運行在本地Client端。當用spark-shell交互式工具提交SparkJob時,DriverMaster節點上運行;當使用spark-submit工具提交Job或者在EclipsIDEA等開發平臺上使用」new SparkConf.setManager(spark://master:7077)」方式運行Spark任務時,Driver是運行在本地Client端上的。

其運行過程以下:

1.SparkContext鏈接到Master,向Master註冊並申請資源(CPU Core Memory);

2.Master根據SparkContext的資源申請要求和Worker心跳週期內報告的信息決定在哪一個Worker上分配資源,而後在該Worker上獲取資源,而後啓動StandaloneExecutorBackend

3.StandaloneExecutorBackendSparkContext註冊;

4.SparkContextApplicaiton代碼發送給StandaloneExecutorBackend;而且SparkContext解析Applicaiton代碼,構建DAG圖,並提交給DAG Scheduler分解成Stage(當碰到Action操做時,就會催生Job;每一個Job中含有1個或多個StageStage通常在獲取外部數據和shuffle以前產生),而後以Stage(或者稱爲TaskSet)提交給Task SchedulerTask Scheduler負責將Task分配到相應的Worker,最後提交給StandaloneExecutorBackend執行;

5.StandaloneExecutorBackend會創建Executor線程池,開始執行Task,並向SparkContext報告,直至Task完成。

6.全部Task完成後,SparkContextMaster註銷,釋放資源。

clip_image016

2.2  Spark on YARN運行過程

YARN是一種統一資源管理機制,在其上面能夠運行多套計算框架。目前的大數據技術世界,大多數公司除了使用Spark來進行數據計算,因爲歷史緣由或者單方面業務處理的性能考慮而使用着其餘的計算框架,好比MapReduceStorm等計算框架。Spark基於此種狀況開發了Spark on YARN的運行模式,因爲藉助了YARN良好的彈性資源管理機制,不只部署Application更加方便,並且用戶在YARN集羣中運行的服務和Application的資源也徹底隔離,更具實踐應用價值的是YARN能夠經過隊列的方式,管理同時運行在集羣中的多個服務。

Spark on YARN模式根據Driver在集羣中的位置分爲兩種模式:一種是YARN-Client模式,另外一種是YARN-Cluster(或稱爲YARN-Standalone模式)。

2.2.1 YARN框架流程

任何框架與YARN的結合,都必須遵循YARN的開發模式。在分析Spark on YARN的實現細節以前,有必要先分析一下YARN框架的一些基本原理。

Yarn框架的基本運行流程圖爲:

clip_image018

其中,ResourceManager負責將集羣的資源分配給各個應用使用,而資源分配和調度的基本單位是Container,其中封裝了機器資源,如內存、CPU、磁盤和網絡等,每一個任務會被分配一個Container,該任務只能在該Container中執行,並使用該Container封裝的資源。NodeManager是一個個的計算節點,主要負責啓動Application所需的Container,監控資源(內存、CPU、磁盤和網絡等)的使用狀況並將之彙報給ResourceManagerResourceManagerNodeManagers共同組成整個數據計算框架,ApplicationMaster與具體的Application相關,主要負責同ResourceManager協商以獲取合適的Container,並跟蹤這些Container的狀態和監控其進度。

2.2.2 YARN-Client

Yarn-Client模式中,Driver在客戶端本地運行,這種模式可使得Spark Application和客戶端進行交互,由於Driver在客戶端,因此能夠經過webUI訪問Driver的狀態,默認是http://hadoop1:4040訪問,而YARN經過http:// hadoop1:8088訪問。

YARN-client的工做流程分爲如下幾個步驟:

clip_image020

1.Spark Yarn ClientYARNResourceManager申請啓動Application Master。同時在SparkContent初始化中將建立DAGSchedulerTASKScheduler等,因爲咱們選擇的是Yarn-Client模式,程序會選擇YarnClientClusterSchedulerYarnClientSchedulerBackend

2.ResourceManager收到請求後,在集羣中選擇一個NodeManager,爲該應用程序分配第一個Container,要求它在這個Container中啓動應用程序的ApplicationMaster,與YARN-Cluster區別的是在該ApplicationMaster不運行SparkContext,只與SparkContext進行聯繫進行資源的分派;

3.Client中的SparkContext初始化完畢後,與ApplicationMaster創建通信,向ResourceManager註冊,根據任務信息向ResourceManager申請資源(Container);

4.一旦ApplicationMaster申請到資源(也就是Container)後,便與對應的NodeManager通訊,要求它在得到的Container中啓動啓動CoarseGrainedExecutorBackendCoarseGrainedExecutorBackend啓動後會向Client中的SparkContext註冊並申請Task

5.Client中的SparkContext分配TaskCoarseGrainedExecutorBackend執行,CoarseGrainedExecutorBackend運行Task並向Driver彙報運行的狀態和進度,以讓Client隨時掌握各個任務的運行狀態,從而能夠在任務失敗時從新啓動任務;

6.應用程序運行完成後,ClientSparkContextResourceManager申請註銷並關閉本身。

 

2.2.3 YARN-Cluster

YARN-Cluster模式中,當用戶向YARN中提交一個應用程序後,YARN將分兩個階段運行該應用程序:第一個階段是把SparkDriver做爲一個ApplicationMasterYARN集羣中先啓動;第二個階段是由ApplicationMaster建立應用程序,而後爲它向ResourceManager申請資源,並啓動Executor來運行Task,同時監控它的整個運行過程,直到運行完成。

YARN-cluster的工做流程分爲如下幾個步驟:


clip_image022

1.   Spark Yarn ClientYARN中提交應用程序,包括ApplicationMaster程序、啓動ApplicationMaster的命令、須要在Executor中運行的程序等;

2.   ResourceManager收到請求後,在集羣中選擇一個NodeManager,爲該應用程序分配第一個Container,要求它在這個Container中啓動應用程序的ApplicationMaster,其中ApplicationMaster進行SparkContext等的初始化;

3.   ApplicationMasterResourceManager註冊,這樣用戶能夠直接經過ResourceManage查看應用程序的運行狀態,而後它將採用輪詢的方式經過RPC協議爲各個任務申請資源,並監控它們的運行狀態直到運行結束;

4.   一旦ApplicationMaster申請到資源(也就是Container)後,便與對應的NodeManager通訊,要求它在得到的Container中啓動啓動CoarseGrainedExecutorBackendCoarseGrainedExecutorBackend啓動後會向ApplicationMaster中的SparkContext註冊並申請Task。這一點和Standalone模式同樣,只不過SparkContextSpark Application中初始化時,使用CoarseGrainedSchedulerBackend配合YarnClusterScheduler進行任務的調度,其中YarnClusterScheduler只是對TaskSchedulerImpl的一個簡單包裝,增長了對Executor的等待邏輯等;

5.   ApplicationMaster中的SparkContext分配TaskCoarseGrainedExecutorBackend執行,CoarseGrainedExecutorBackend運行Task並向ApplicationMaster彙報運行的狀態和進度,以讓ApplicationMaster隨時掌握各個任務的運行狀態,從而能夠在任務失敗時從新啓動任務;

6.   應用程序運行完成後,ApplicationMasterResourceManager申請註銷並關閉本身。

 

2.2.4 YARN-Client YARN-Cluster 區別

理解YARN-ClientYARN-Cluster深層次的區別以前先清楚一個概念:Application Master。在YARN中,每一個Application實例都有一個ApplicationMaster進程,它是Application啓動的第一個容器。它負責和ResourceManager打交道並請求資源,獲取資源以後告訴NodeManager爲其啓動Container。從深層次的含義講YARN-ClusterYARN-Client模式的區別其實就是ApplicationMaster進程的區別。

l  YARN-Cluster模式下,Driver運行在AM(Application Master)中,它負責向YARN申請資源,並監督做業的運行情況。當用戶提交了做業以後,就能夠關掉Client,做業會繼續在YARN上運行,於是YARN-Cluster模式不適合運行交互類型的做業;

l  YARN-Client模式下,Application Master僅僅向YARN請求ExecutorClient會和請求的Container通訊來調度他們工做,也就是說Client不能離開。

clip_image024 clip_image026

3Spark在不一樣集羣中的運行演示

在如下運行演示過程當中須要啓動HadoopSpark集羣,其中Hadoop須要啓動HDFSYARN,啓動過程能夠參見第三節《Spark編程模型(上)--概念及Shell試驗》。

3.1 Standalone運行過程演示

Spark集羣的節點中,40%的數據用於計算,60%的內存用於保存結果,爲了可以直觀感覺數據在內存和非內存速度的區別,在該演示中將使用大小爲1GSogou3.txt數據文件(參見第三節《Spark編程模型(上)--概念及Shell試驗》的3.2測試數據文件上傳),經過對比獲得差距。

3.1.1 查看測試文件存放位置

使用HDFS命令觀察Sogou3.txt數據存放節點的位置

$cd /app/hadoop/hadoop-2.2.0/bin

$hdfs fsck /sogou/SogouQ3.txt -files -blocks -locations

經過能夠看到該文件被分隔爲9個塊放在集羣中

clip_image028

3.1.2啓動Spark-Shell

經過以下命令啓動Spark-Shell,在演示當中每一個Executor分配1G內存

$cd /app/hadoop/spark-1.1.0/bin

$./spark-shell --master spark://hadoop1:7077 --executor-memory 1g

經過Spark的監控界面查看Executors的狀況,能夠觀察到有1Driver 3Executor,其中hadoop2hadoop3啓動一個Executor,而hadoop1啓動一個ExecutorDriver。在該模式下Driver中運行SparkContect,也就是DAGShedulerTaskSheduler等進程是運行在節點上,進行StageTask的分配和管理。

clip_image030

3.1.3運行過程及結果分析

第一步   讀取文件後計算數據集條數,並計算過程當中使用cache()方法對數據集進行緩存

val sogou=sc.textFile("hdfs://hadoop1:9000/sogou/SogouQ3.txt")

sogou.cache()

sogou.count()

經過頁面監控能夠看到該做業分爲8個任務,其中一個任務的數據來源於兩個數據分片,其餘的任務各對應一個數據分片,即顯示7個任務獲取數據的類型爲(NODE_LOCAL),1個任務獲取數據的類型爲任何位置(ANY)。

clip_image032

在存儲監控界面中,咱們能夠看到緩存份數爲3,大小爲907.1M,緩存率爲38%

clip_image034

運行結果獲得數據集的數量爲1000萬筆數據,總共花費了352.17

clip_image036

第二步   再次讀取文件後計算數據集條數,這次計算使用緩存的數據,對比先後

sogou.count()

經過頁面監控能夠看到該做業仍是分爲8個任務,其中3個任務數據來自內存(PROCESS_LOCAL),3個任務數據來自本機(NODE_LOCAL),其餘2個任務數據來自任何位置(ANY)。任務所耗費的時間多少排序爲:ANY> NODE_LOCAL> PROCESS_LOCAL,對比看出使用內存的數據比使用本機或任何位置的速度至少會快2個數量級。

clip_image038

整個做業的運行速度爲34.14秒,比沒有緩存提升了一個數量級。因爲剛纔例子中數據只是部分緩存(緩存率38%),若是徹底緩存速度可以獲得進一步提高,從這體驗到Spark很是耗內存,不過也夠快、夠鋒利!

clip_image040

3.2 YARN-Client運行過程演示

3.2.1 啓動Spark-Shell

經過以下命令啓動Spark-Shell,在演示當中分配3Executor、每一個Executor1G內存

$cd /app/hadoop/spark-1.1.0/bin

$./spark-shell --master YARN-client --num-executors 3 --executor-memory 1g

第一步   把相關的運行JAR包上傳到HDFS

clip_image042

經過HDFS查看界面能夠看到在 /user/hadoop/.sparkStaging/應用編號,查看到這些文件:

clip_image044

第二步   啓動Application Master,註冊Executor

應用程序向ResourceManager申請啓動Application Master,在啓動完成後會分配Cotainer並把這些信息反饋給SparkContextSparkContext和相關的NM通信,在得到的Container上啓動Executor,從下圖能夠看到在hadoop1hadoop2hadoop3分別啓動了Executor

clip_image046

第三步   查看啓動結果

YARN-Client模式中,Driver在客戶端本地運行,這種模式可使得Spark Application和客戶端進行交互,由於Driver在客戶端因此能夠經過webUI訪問Driver的狀態,默認是http://hadoop1:4040訪問,而YARN經過http:// hadoop1:8088訪問。

clip_image048

clip_image050

3.2.2 運行過程及結果分析

第一步   讀取文件後計算數據集條數,並計算過程當中使用cache()方法對數據集進行緩存

val sogou=sc.textFile("hdfs://hadoop1:9000/sogou/SogouQ3.txt")

sogou.cache()

sogou.count()

經過頁面監控能夠看到該做業分爲8個任務,其中一個任務的數據來源於兩個數據分片,其餘的任務各對應一個數據分片,即顯示7個任務獲取數據的類型爲(NODE_LOCAL),1個任務獲取數據的類型爲任何位置(RACK_LOCAL)。

clip_image052

經過運行日誌能夠觀察到在全部任務結束的時候,由 YARNClientScheduler通知YARN集羣任務運行完畢,回收資源,最終關閉SparkContext,整個過程耗費108.6秒。

clip_image054

第二步   查看數據緩存狀況

經過監控界面能夠看到,和Standalone同樣38%的數據已經緩存在內存中

clip_image056

第三步   再次讀取文件後計算數據集條數,這次計算使用緩存的數據,對比先後

sogou.count()

經過頁面監控能夠看到該做業仍是分爲8個任務,其中3個任務數據來自內存(PROCESS_LOCAL),4個任務數據來自本機(NODE_LOCAL),1個任務數據來自機架(RACK_LOCAL)。對比在內存中的運行速度最快,速度比在本機要快至少1個數量級。

clip_image058

YARNClientClusterScheduler替代了Standalone模式下得TaskScheduler進行任務管理,在任務結束後通知YARN集羣進行資源的回收,最後關閉SparkContect。部分緩存數據運行過程耗費了29.77秒,比沒有緩存速度提高很多。

clip_image060

3.3 YARN-Cluster運行過程演示

3.3.1 運行程序

經過以下命令啓動Spark-Shell,在演示當中分配3Executor、每一個Executor512M內存

$cd /app/hadoop/spark-1.1.0

$./bin/spark-submit --master YARN-cluster --class class3.SogouResult --executor-memory 512m LearnSpark.jar hdfs://hadoop1:9000/sogou/SogouQ3.txt  hdfs://hadoop1:9000/class3/output2

第一步   把相關的資源上傳到HDFS中,相對於YARN-Client多了LearnSpark.jar文件

clip_image062

這些文件能夠在HDFS中找到,具體路徑爲 http://hadoop1:9000/user/hadoop/.sparkStaging/應用編號 :

clip_image064

第二步   YARN集羣接管運行

首先YARN集羣中由ResourceManager分配Container啓動SparkContext,並分配運行節點,由SparkConextNM進行通信,獲取Container啓動Executor,而後由SparkContextYarnClusterScheduler進行任務的分發和監控,最終在任務執行完畢時由YarnClusterScheduler通知ResourceManager進行資源的回收。

clip_image066

3.3.2 運行結果

YARN-Cluster模式中命令界面只負責應用的提交,SparkContext和做業運行均在YARN集羣中,能夠從http:// hadoop1:8088查看到具體運行過程,運行結果輸出到HDFS中,以下圖所示:

clip_image068

4問題解決

4.1 YARN-Client啓動報錯

在進行Hadoop2.X 64bit編譯安裝中因爲使用到64位虛擬機,安裝過程當中出現下圖錯誤:

[hadoop@hadoop1 spark-1.1.0]$ bin/spark-shell --master YARN-client --executor-memory 1g --num-executors 3

Spark assembly has been built with Hive, including Datanucleus jars on classpath

Exception in thread "main" java.lang.Exception: When running with master 'YARN-client' either HADOOP_CONF_DIR or YARN_CONF_DIR must be set in the environment.

        at org.apache.spark.deploy.SparkSubmitArguments.checkRequiredArguments(SparkSubmitArguments.scala:182)

        at org.apache.spark.deploy.SparkSubmitArguments.<init>(SparkSubmitArguments.scala:62)

        at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:70)

        at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

clip_image070

 

參考資料:

(1)Spark1.0.0 運行架構基本概念》 http://blog.csdn.net/book_mmicky/article/details/25714419

(2)Spark架構與做業執行流程簡介》 http://www.cnblogs.com/shenh062326/p/3658543.html

(3)Spark1.0.0 運行架構基本概念》 http://shiyanjun.cn/archives/744.html

相關文章
相關標籤/搜索