Spark到底解決了什麼根本性的技術問題?

1.背景: 在spark出現以前,hadoop的迅速發展,hadoop分佈式集羣,把編程簡化爲自動提供 位置感知性調度,容錯,以及負載均衡的一種模式,用戶就能夠在普通的PC機上運行超大集羣運算,hadoop有一個很是大的問題:hadoop是基於流處理的,hadoop會從(物理存儲)hdfs中加載數據,而後處理以後再返回給物理存儲hdfs中,這樣不斷的讀取與寫入,佔用了大量的IO,後來hadoop出
相關文章
相關標籤/搜索