與Hadoop相比,怎麼看待spark?

Hadoop 首先看一下Hadoop解決了什麼問題,Hadoop就是解決了大數據(大到一臺計算機沒法進行存儲,一臺計算機沒法在要求的時間內進行處理)的可靠存儲和處理。 HDFS,在由普通PC組成的集羣上提供高可靠的文件存儲,經過將塊保存多個副本的辦法解決服務器或硬盤壞掉的問題。 MapReduce,經過簡單的Mapper和Reducer的抽象提供一個編程模型,能夠在一個由幾十臺上百臺的PC組成的不
相關文章
相關標籤/搜索