Apache Spark

Apache Spark 一、概述 Spark是⼀個快如閃電的統⼀分析引擎(計算框架)⽤於⼤規模數據集的處理。Spark在做數據的批處理 計算,計算性能⼤約是Hadoop MapReduce的10~100倍,因爲Spark使⽤⽐較先進的基於 DAG 任務調 度,可以將⼀個任務拆分成若⼲個階段,然後將這些階段分批次交給 集羣計算節點 處理。 1、MapReduce VS Spark MapReduc
相關文章
相關標籤/搜索