與 Hadoop 對比,如何看待 Spark 技術?

Hadoop 首先看一下Hadoop解決了什麼問題,Hadoop就是解決了大數據(大到一臺計算機無法進行存儲,一臺計算機無法在要求的時間內進行處理)的可靠存儲和處理。 HDFS,在由普通PC組成的集羣上提供高可靠的文件存儲,通過將塊保存多個副本的辦法解決服務器或硬盤壞掉的問題。 MapReduce 通過簡單的Mapper和Reducer的抽象提供一個編程模型,可以在一個由幾十臺上百臺的PC組成的不
相關文章
相關標籤/搜索