hadoop大數據平臺手動搭建-spark

Spark 是專爲大規模數據處理而設計的快速通用的計算引擎。擁有Hadoop MapReduce所具有的優點;但不同於MapReduce的是Job中間輸出結果可以保存在內存中,從而不再需要讀寫HDFS,因此Spark能更好地適用於數據挖掘與機器學習等需要迭代的MapReduce的算法。由於spark使用依賴scala.所以一起安裝。   1.解壓文件 tar -zxvf /opt/spark-1.
相關文章
相關標籤/搜索