Spark的定義以及安裝

一、什麼是Spark 官網地址:http://spark.apache.org/ Apache Spark™是用於大規模數據處理的統一分析引擎。 從右側最後一條新聞看,Spark也用於AI人工智能 spark是一個實現快速通用的集羣計算平臺。它是由加州大學伯克利分校AMP實驗室 開發的通用內存並行計算框架,用來構建大型的、低延遲的數據分析應用程序。它擴展了廣泛使用的MapReduce計算 模型。高
相關文章
相關標籤/搜索