大數據的兩個主要框架 Hadoop 和 Spark

Hadoop (MapReduce) :分佈式計算框架(批量處理計算框架) Spark :內存計算框架(實時計算框架,內存計算框架,流式計算框架)         Spark是通用分佈式數據處理引擎,適用於多種情況。在Spark核心數據處理引擎之上,還有用於SQL,機器學習,圖形計算和流處理的庫,它們可以在應用程序中一起使用。 Spark支持的編程語言包括:Java,Python,Scala和R。
相關文章
相關標籤/搜索