spark shuffle 詳解

       衆所周知,大數據領域相關問題,無非就是 大數據存儲和分佈式計算。Hadoop有HDFS和MapReduce計算引擎,但是MapReduce用於批處理,相對來說處理大數據集是強項,並且所依賴的機器配置方面要求較低。而慢慢的被後期之秀spark給取締,我認爲兩者的核心區別是  MapReduce不支持迭代計算,而spark支持,其實都是批處理的方式進行大數據的存儲,spark沒有大數據存
相關文章
相關標籤/搜索