初學者看大數據生態圈

  先從Hadoop提及。數據庫   常常看到有大咖在語錄中說起:有了Spark,就永遠不要Hadoop了,真有大咖這麼說的,不信百度能看見。 網絡   仔細想下,有點道理:若是隻是做爲業務層面的開發者,對於大數據技術而言,確實只學Spark就能夠了,可是若是是系統架構師的話,hadoop仍是要學的,由於做爲大數據的系統架構師,沒辦法迴避hadoop。 數據結構 Hadoop的三個概念組件,架構
相關文章
相關標籤/搜索