hadoop基礎

一,海量信息如何處理 技術難點:穩定性,容錯能力,數據一致性 核心思想:把數據分發到多個節點,移動計算邏輯到數據附近,計算節點進行本地數據處理,優先順序讀,次之隨機讀 二,Hadoop組成 hadoop:YARN,MapReduce,HDFS   三,HDFS(Hadoop Distributed File System) (一個大量文件存儲的框架) 簡介: 源自Google的GFS的論文,   
相關文章
相關標籤/搜索