Spark 爲什麼可以更高效

談到 Spark,我們總是強調它比 Hadoop 更高效。爲什麼它可以更高效呢?是因爲它優先使用內存存儲?還是因爲它擁有比 MapReduce 更簡單高效的計算模型? 與 Hadoop 的區別 我們知道在 Hadoop 中,一個作業(Job)可以有一個或多個Task,Task 又可以分成 Map Task 和 Reduce Task。每個Task 分別在自己的進程中運行,Hadoop 中一個 Ta
相關文章
相關標籤/搜索