Hadoop完全分佈式集羣安裝Spark

應用場景 當我們安裝好Hadoop分佈式集羣后,默認底層計算是採用MapReduce,速度比較慢,適用於跑批場景,而Spark可以和hadoop完美的融合,Spark提供了更強勁的計算能力,它基於內存計算,速度快,效率高。雖然Spark也支持單機安裝,但是這樣就不涉及分佈式計算,以及分佈式存儲,如果我們要用Spark集羣,那麼就需要分佈式的hadoop環境,調用hadoop的分佈式文件系統,本篇博
相關文章
相關標籤/搜索