hadoop、spark、sparkstrming和kafka簡介

1、Hadoop和Spark的關係 Spark是爲了跟Hadoop配合而開發出來的,不是爲了取代Hadoop,專門用於大數據量下的迭代式計算。 Spark運算比Hadoop的MapReduce框架快的原因是因爲Hadoop在一次MapReduce運算之後,會將數據的運算結果從內存寫入到磁盤中,第二次MapReduce運算時再從磁盤中讀取數據,所以其瓶頸在2次運算間的多餘I/O消耗。Spark則是將
相關文章
相關標籤/搜索