Spark與Hadoop的關係

一、實現原理的比較 (1)Hadoop和Spark都是並行計算,兩者都是用MR模型進行計算 (2)Hadoop一個作業稱爲一個Job,Job裏面分爲Map Task和Reduce Task階段,每個Task都在自己的進程中運行,當Task結束時,進程也會隨之結束; (3)Spark用戶提交的任務稱爲application,一個application對應一個SparkContext,app中存在多個
相關文章
相關標籤/搜索