Apache Spark1.1.0部署與開發環境搭建

  Spark是Apache公司推出的一種基於Hadoop Distributed File System(HDFS)的並行計算架構。與MapReduce不一樣,Spark並不侷限於編寫map和reduce兩個方法,其提供了更爲強大的內存計算(in-memory computing)模型,使得用戶能夠經過編程將數據讀取到集羣的內存當中,而且能夠方便用戶快速地重複查詢,很是適合用於實現機器學習算法。
相關文章
相關標籤/搜索