Apache Spark 概念

Spark是什麼 Apache Spark是用於大規模數據處理的統一分析引擎 Spark基於內存計算,提高了在大數據環境下數據處理的實時性,同時保證了高容錯性和高可伸縮性,允許用戶將Spark部署在大量硬件之上,形成集羣。 官網 http://spark.apache.org http://spark.apachecn.org
相關文章
相關標籤/搜索