Hadoop的MapReduce詳解

一、MapReduce數據處理流程 關於上圖,可以做出以下逐步分析: 輸入數據(待處理)首先會被切割分片,每一個分片都會複製多份到HDFS中。上圖默認的是分片已經存在於HDFS中。 Hadoop會在存儲有輸入數據分片(HDFS中的數據)的節點上運行map任務,可以獲得最佳性能(數據TaskTracker優化,節省帶寬)。 在運行完map任務之後,可以看到數據並不是存回HDFS中,而是直接存在了本地
相關文章
相關標籤/搜索