在機器學習、大數據等領域工做,該學Hadoop仍是Spark?

相信看這篇文章的大家,都和我同樣對Hadoop和Apache Spark的選擇有必定的疑惑,今天查了很多資料,咱們就來談談這兩種 平臺的比較與選擇吧,看看對於工做和發展,到底哪一個更好。 1、Hadoop與Spark 1.Spark Spark是一個用來實現快速而通用的集羣計算的平臺。速度方面,Spark擴展了普遍使用的MapReduce計算模型,並且高效地支持更多計算模式,包括交互式查詢和流處理
相關文章
相關標籤/搜索