Spark總結02

下面的是對Spark總結01的複習以及詳細的講解 一、作業提交的執行流程   1)Spark程序寫完之後,就要提交到spark集羣上面去運行,這就是spark作業(一次代碼的運行+一份數據的處理+一次結果的產出)。 2) Spark作業是通過spark集羣中的多個獨立的進程(executor)並行執行的,每個進程處理一部分數據,從而做到分佈式並行計算,才能做到對大數據並行處理和計算。作業在多個進程
相關文章
相關標籤/搜索