初學者看大數據生態圈

  先從Hadoop說起。   經常看到有大咖在語錄中提及:有了Spark,就永遠不要Hadoop了,真有大咖這麼說的,不信百度能看見。   仔細想下,有點道理:如果只是作爲業務層面的開發者,對於大數據技術而言,確實只學Spark就可以了,但是如果是系統架構師的話,hadoop還是要學的,因爲作爲大數據的系統架構師,沒辦法迴避hadoop。 Hadoop的三個概念組件, spark在這裏主要替代的
相關文章
相關標籤/搜索