第二十三記·Spark Core詳解 未完待續……

XY個人記 Apache Spark是專爲大規模數據處理而設計的快速通用的計算引擎  。現在形成一個高速發展應用廣泛的生態系統。 官網地址:http://spark.apache.org/ Spark,擁有Hadoop MapReduce所具有的優點;但不同於MapReduce的是——Job中間輸出結果可以保存在內存中,從而不再需要讀寫HDFS,因此Spark能更好地適用於數據挖掘與機器學習等需要
相關文章
相關標籤/搜索