Spark與Hadoop(MapReduce)

Hadoop存在如下一些缺點: 表達能力有限 磁盤IO開銷大 延遲高 任務之間的銜接涉及IO開銷 在前一個任務執行完成之前,其他任務就無法開始,難以勝任複雜、多階段的計算任務 Spark具有如下幾個主要特點: 運行速度快:使用DAG執行引擎以支持循環數據流與內存計算 容易使用:支持使用Scala、Java、Python和R語言進行編程,可以通過Spark Shell進行交互式編程 通用性:Spar
相關文章
相關標籤/搜索