Spark:超越Hadoop MapReduce

引言:和 Hadoop 一樣,Spark 提供了一個 Map/Reduce API(分佈式計算)和分佈式存儲。二者主要的不同點是,Spark 在集羣的內存中保存數據,而 Hadoop 在集羣的磁盤中存儲數據。  本文選自《SparkGraphX實戰》。   大數據對一些數據科學團隊來說是 主要的挑戰,因爲在要求的可擴展性方面單機沒有能力和容量來運行大規模數據處 理。此外,即使專爲大數據設計的系統,
相關文章
相關標籤/搜索