大數據學習—Spark

爲何要用Spark Spark是創建在當前大數據體系中的一個重要框架,它解決了當前hadoop體系內,不夠完美的一些地方。要說Spark的優點,應該從下面幾個緯度來講:html 1,mapreduce的缺陷 mapreduce框架設計之初,主要爲了解決大數據場景下,併發的數據處理的問題,好比你想從PB級別的數據中,獲取本身想要的信息。那麼mapreduce的執行邏輯,就是我會把任務分紅兩個階段:m
相關文章
相關標籤/搜索